Spis treści
- Google opracowało model AI odporny na wycieki danych treningowych
- Red AI Range – nowoczesne narzędzie do testowania bezpieczeństwa systemów sztucznej inteligencji
- Najnowsze osiągnięcia AWS w dziedzinie sztucznej inteligencji i chmury
- FTC bada chatboty AI pod kątem bezpieczeństwa dzieci
- Chińscy giganci przyspieszają niezależność chipową w sztucznej inteligencji
Google opracowało model AI odporny na wycieki danych treningowych
Problematyka bezpieczeństwa danych treningowych w modelach sztucznej inteligencji stała się jednym z kluczowych wyzwań technologicznych ostatnich lat. Badania wykazały, że duże modele językowe i systemy uczenia maszynowego mogą nieintencjonalnie zapamiętywać i ujawniać fragmenty swoich danych treningowych, co stwarza poważne zagrożenia dla prywatności użytkowników oraz bezpieczeństwa informacji.
Różnorodność ataków wyciągania danych treningowych
Ataki na wyciąganie danych treningowych przyjmują różne formy techniczne. Ataki oparte na promptach wykorzystują wieloetapowe interakcje z modelami, gdzie przeciwnicy stopniowo wydobywają zapamiętane treści poprzez starannie skonstruowane zapytania. Bezwarunkowe próbkowanie automatyczne polega na generowaniu ogromnych ilości tekstów przy użyciu minimalnych wskazówek, a następnie analizowaniu statystycznym w celu identyfikacji fragmentów pochodzących z danych treningowych.
Szczególnie zaawansowane są ataki optymalizacji tokenów, które systematycznie manipulują sekwencjami wejściowymi, aby wywołać zapamiętane treści. Techniki te potrafią wydobywać różnorodne typy danych, w tym kod źródłowy, strony internetowe oraz informacje umożliwiające identyfikację osoby.
Prywatność różnicowa jako rozwiązanie techniczne
Google od dekady inwestuje w technologie wspierające prywatność, ze szczególnym naciskiem na prywatność różnicową(differential privacy). To matematyczne ramy umożliwiające analizę zbiorów danych w sposób zachowujący prywatność, gwarantując, że indywidualne informacje nigdy nie zostaną ujawnione.
Firma osiągnęła to, co uważa za największe zastosowanie prywatności różnicowej na świecie, obejmujące blisko trzy miliardy urządzeń w ciągu ostatniego roku. Technologia ta została wykorzystana do ulepszenia produktów takich jak Google Home, Google Search na Androidzie oraz Messages.
W kontekście uczenia maszynowego, prywatność różnicowa charakteryzuje się parametrami (ε, δ), gdzie mniejsze wartości oznaczają silniejsze gwarancje prywatności. Algorytm DP-SGD (differentially private stochastic gradient descent) modyfikuje standardowy SGD poprzez przycinanie gradientów poszczególnych przykładów i dodawanie odpowiedniej ilości szumu, aby zamaskować wkład każdego indywiduum w aktualizacje modelu.
| Technika ochrony | Mechanizm działania | Ograniczenia |
|---|---|---|
| Prywatność różnicowa | Dodawanie skalibrowanego szumu matematycznego | Kompromis prywatność-użyteczność |
| Dane syntetyczne | Tworzenie sztucznych, nieidentyfikowalnych danych treningowych | Utrzymanie ryzyka prywatności przy wysokiej użyteczności |
| Przetwarzanie na urządzeniu | Lokalne uruchamianie modeli AI | Ograniczone do mniejszych modeli |
Praktyczne zastosowania i wyzwania implementacyjne
Implementacja technik zachowujących prywatność napotyka na rzeczywiste wyzwania. Metody te często wiążą się z kompromisem prywatność-użyteczność, gdzie silniejsza ochrona prywatności skutkuje obniżoną dokładnością modelu. Problem ten jest szczególnie wyraźny w przypadku dużych modeli przeznaczonych do przetwarzania tekstu.
Badania Google pokazały znaczący postęp w różnicowo prywatnej klasyfikacji obrazów. Osiągnęli około 10% poprawę na zbiorze CIFAR-10 w porównaniu z poprzednimi pracami oraz dokładność 86,7% na ImageNet przy prywatnym dostrajaniu modelu, niemal zamykając lukę z najlepszą wydajnością nieprywatną.
Google stosuje wielopłaszczyznowe podejście do ograniczania ryzyka, implementując zabezpieczenia bezpieczeństwa treści oraz mechanizmy monitorowania. Firma opracowała również agenta AI, który automatycznie wykrywa zagrożenia bezpieczeństwa w kodzie rzeczywistego świata.
Perspektywy rozwoju technologicznego
Rozwój systemów AI odpornych na wycieki danych treningowych wymaga dalszych badań nad nowymi metodami ochrony. Techniki kryptograficzne takie jak szyfrowanie homomorficzne oraz dowody zero-knowledge pozwalają na przetwarzanie danych przez systemy AI bez ujawniania ich zawartości, choć pozostają kosztowne obliczeniowo.
Przyszłość należy do rozwiązań łączących różne podejścia – od przetwarzania lokalnego przez bezpieczne wdrażanie w chmurze po zaawansowane metody kryptograficzne. Kluczowe będzie znalezienie równowagi między ochroną prywatności a użytecznością modeli, szczególnie w kontekście rosnących możliwości systemów AI i zwiększającej się świadomości użytkowników w zakresie ochrony danych.
Red AI Range – nowoczesne narzędzie do testowania bezpieczeństwa systemów sztucznej inteligencji
W miarę jak organizacje coraz częściej implementują rozwiązania oparte na sztucznej inteligencji w krytycznych infrastrukturach, konieczność bezpiecznego testowania tych systemów staje się priorytetem. Red AI Range (RAR) to innowacyjne narzędzie open source, które rewolucjonizuje sposób testowania bezpieczeństwa systemów AI poprzez zaawansowane techniki red teamingu.
Kompleksowa platforma do testowania AI
Red AI Range, opracowane przez Erdema Özgena, stanowi zunifikowaną platformę do testowania bezpieczeństwa systemów sztucznej inteligencji. Narzędzie wykorzystuje konteneryzację Docker do tworzenia kontrolowanych środowisk, w których specjaliści ds. bezpieczeństwa mogą przeprowadzać realistyczne symulacje ataków na infrastruktury AI.
Główną zaletą RAR jest konsolidacja różnorodnych narzędzi testowych i scenariuszy podatności AI w jednym miejscu. Platforma automatyzuje proces generowania plików Docker Compose, zarządza zmiennymi środowiskowymi oraz izoluje konflikty między zależnościami, co pozwala analitykom skupić się na odkrywaniu podatności zamiast na konfiguracji środowiska.
Kluczowe funkcjonalności i architektura
Red AI Range wyróżnia się prostotą wdrożenia – cała platforma testowa uruchamia się jednym poleceniem docker compose up -d. System oferuje trzy główne kontrolki: Arsenal (wdrażanie narzędzi testowych), Target (tworzenie celów z podatnościami) oraz Compose (zarządzanie stosami).
Platforma obejmuje bogaty katalog scenariuszy testowych, które replikują rzeczywiste zagrożenia dla systemów AI. Dostępne są moduły do testowania ataków perturbacyjnych na klasyfikację obrazów, symulacje ataków na prywatność typu model inversion i membership inference, oraz testy odporności na adversarial patches.
Architektura Docker-in-Docker zapewnia ścisłą alokację zasobów i efektywne czyszczenie środowiska testowego. System umożliwia również równoległe wykonywanie wielu scenariuszy ataków, co pozwala na porównanie mechanizmów obronnych różnych architektur modeli.
Praktyczne zastosowania w branży
Red AI Range znajduje zastosowanie w różnych obszarach bezpieczeństwa AI. Zespoły bezpieczeństwa korporacyjnego mogą wykorzystywać platformę do walidacji systemów AI przed wdrożeniem produkcyjnym. Instytucje akademickie włączają moduły RAR do programów nauczania jako praktyczne laboratoria z zakresu adversarial machine learning.
Narzędzie obsługuje zdalne połączenia z rozproszonymi instancjami RAR, co umożliwia wykorzystanie klastrów GPU oraz koordynację globalnych ćwiczeń red team. Wbudowana funkcja nagrywania video z oznaczonymi czasem logami zachowuje każdy krok testowania dla celów szkoleniowych i audytów compliance.
Platforma wspiera testowanie scenariuszy od ataków typu evasion, przez model poisoning, po exploity prywatności. Intuicyjny interfejs webowy pozwala na nawigację między predefiniowanymi scenariuszami AI oraz monitorowanie statusu kontenerów.
Najnowsze osiągnięcia AWS w dziedzinie sztucznej inteligencji i chmury
Amazon Web Services ogłosił szereg istotnych innowacji w swoim tygodniowym podsumowaniu z 15 września 2025 roku, koncentrując się głównie na rozwoju technologii agentów AI oraz usprawnieniach infrastrukturalnych. Kluczowe wydarzenia obejmują przełomowy sukces platformy Strands Agents, wprowadzenie nowych instancji Mac EC2 oraz rozszerzenie możliwości integracyjnych dla deweloperów.
Strands Agents osiąga milion pobrań
Największym sukcesem minionego tygodnia było osiągnięcie przez Strands Agents SDK pierwszego miliona pobrań oraz zdobycie ponad 3000 gwiazdek na GitHubie w ciągu niecałych czterech miesięcy od premiery w maju 2025 roku. Ten open-source’owy zestaw narzędzi do tworzenia agentów AI umożliwia budowanie gotowych do produkcji, wieloagentowych systemów sztucznej inteligencji za pomocą zaledwie kilku linijek kodu.
Platforma została znacznie rozbudowana od momentu swojego debiutu, wprowadzając wsparcie dla wzorców wieloagentowych, protokołu A2A (Agent-to-Agent) oraz integrację z Amazon Bedrock AgentCore. Te ulepszenia pozwalają na tworzenie skomplikowanych systemów agentów AI, które mogą współpracować ze sobą nawzajem oraz komunikować się między różnymi platformami.
Nowe możliwości sprzętowe dla deweloperów Apple
AWS uruchomił nowe instancje EC2 Mac oparte na chipach Apple M4 oraz M4 Pro, oferując znaczące zwiększenie wydajności dla deweloperów aplikacji na systemy iOS i macOS. Instancje M4 zapewniają do 20% lepszą wydajność kompilacji aplikacji w porównaniu do poprzedniej generacji M2, podczas gdy wersje M4 Pro oferują 15% poprawę wydajności.
Nowe instancje są wyposażone w zaawansowane specyfikacje techniczne – M4 posiada 10-rdzeniowy procesor CPU, 10-rdzeniowy GPU i 24 GB zunifikowanej pamięci, podczas gdy M4 Pro oferuje 14-rdzeniowy CPU, 20-rdzeniowy GPU oraz 48 GB pamięci. Każda instancja dysponuje również 2 TB lokalnej pamięci masowej dla poprawy wydajności cache’owania i procesów build.
Usprawnienia środowiska deweloperskiego
Znaczące ulepszenia dotknęły także narzędzi deweloperskich. AWS wprowadziło integrację LocalStack z AWS Toolkit dla Visual Studio Code, umożliwiając deweloperom testowanie i debugowanie aplikacji serverless lokalnie bez przełączania między różnymi narzędziami. Ta integracja pozwala na emulację przepływów pracy opartych na zdarzeniach obejmujących usługi takie jak Lambda, Amazon SQS i Amazon EventBridge w środowisku lokalnym.
Dodatkowo AWS uruchomił funkcję CDK Refactor w wersji preview, która umożliwia bezpieczne reorganizowanie kodu infrastruktury. Narzędzie to pozwala na zmianę nazw konstruktów, przenoszenie zasobów między stackami oraz reorganizację aplikacji CDK przy jednoczesnym zachowaniu wdrożonych zasobów AWS.
Rozszerzenie możliwości sieciowych
Amazon CloudFront otrzymał wsparcie dla źródeł IPv6, umożliwiając kompleksową dostawę IPv6 od końca do końca. Ta funkcjonalność pozwala użytkownikom na wysyłanie ruchu IPv6 bezpośrednio do ich źródeł, co jest szczególnie istotne w kontekście rosnącego przyjęcia protokołu IPv6 w nowoczesnych sieciach mobilnych.
Nowa funkcjonalność oferuje opcje konfiguracji IPv4 (domyślnie), IPv6 lub dual-stack (IPv4 i IPv6), przy czym w przypadku dual-stack CloudFront automatycznie wybiera między adresami IPv4 i IPv6 dla zapewnienia równomiernej dystrybucji ruchu.
Globalny hackathon agentów AI
AWS ogłosił rozpoczęcie AI Agent Global Hackathon, który trwa od 8 września do 20 października 2025 roku. Wydarzenie oferuje uczestnikom możliwość tworzenia agentów AI przy użyciu pakietu usług AWS AI, z pulą nagród przekraczającą 45 000 dolarów amerykańskich oraz ekskluzywne możliwości wprowadzenia produktów na rynek.
Hackathon wymaga od uczestników stworzenia działającego agenta AI na AWS, który wykorzystuje modele językowe hostowane przez AWS Bedrock lub Amazon SageMaker AI oraz demonstruje autonomiczne możliwości z integracją API, baz danych lub zewnętrznych narzędzi.
Praktyczne zastosowania nowych technologii
Przedstawione innowacje mają szerokie zastosowanie w rzeczywistych scenariuszach biznesowych. Strands Agents SDK już jest wykorzystywany przez zespoły AWS w produkcji, w tym przez Amazon Q Developer, AWS Glue oraz Amazon VPC Reachability Analyzer. Platforma umożliwia tworzenie zaawansowanych systemów wieloagentowych, które mogą współpracować poprzez protokół A2A, tworząc rozproszone architektury AI.
Nowe instancje Mac EC2 adresują potrzeby zespołów deweloperskich budujących aplikacje na platformy Apple, oferując zwiększoną wydajność dla złożonych procesów build oraz możliwość uruchomienia wielu symulatorów iOS jednocześnie. Integracja z usługami AWS pozwala na budowanie zautomatyzowanych potoków CI/CD przy użyciu AWS CodeBuild i AWS CodePipeline.
FTC bada chatboty AI pod kątem bezpieczeństwa dzieci
Federalna Komisja Handlu Stanów Zjednoczonych (FTC) rozpoczęła zakrojone na szeroką skalę dochodzenie w sprawie potencjalnego zagrożenia, jakie chatboty AI stanowią dla niepełnoletnich użytkowników. Komisja wystawiła nakazy informacyjne do siedmiu głównych firm technologicznych, badając ich praktyki dotyczące bezpieczeństwa dzieci i młodzieży.
Zakres dochodzenia FTC
Komisja wykorzystała swoje uprawnienia w ramach sekcji 6(b), która pozwala na przeprowadzanie kompleksowych studiów bez konkretnego celu egzekucyjnego. Objęte dochodzeniem firmy to Alphabet Inc. (Google), Character Technologies, Instagram LLC, Meta Platforms, OpenAI OpCo LLC, Snap Inc. oraz X.AI Corp.
FTC koncentruje się na określeniu, jak te przedsiębiorstwa monetyzują zaangażowanie użytkowników, przetwarzają dane wejściowe i generują odpowiedzi, a przede wszystkim – jakie środki podjęły w celu oceny bezpieczeństwa swoich chatbotów działających jako towarzysz. Szczególną uwagę zwrócono na sposoby, w jakie firmy ograniczają dostęp dzieci do platform lub zapobiegają potencjalnym negatywnym skutkom.
Techniczne wyzwania chatbotów kompanijskich
Chatboty AI wykorzystujące technologię generatywną potrafią symulować komunikację przypominającą ludzką oraz interpersonalne relacje. Projektowane są tak, by komunikować się jak przyjaciel lub powiernik, co może prowadzić do tego, że użytkownicy – szczególnie dzieci i nastolatki – zaczynają im ufać i nawiązywać z nimi relacje.
Badania pokazują, że dzieci mają skłonność do ujawniania większej ilości informacji chatbotom niż ludziom, ponieważ boty nie wykazują emocji i są postrzegane jako prywatne i nieoceniające. Jednocześnie, te systemy mogą generować odpowiedzi instruujące dzieci o aktach przemocy lub nielegalnych działaniach, a także angażować nieletnich w niepożądane scenariusze ról.
| Problem techniczny | Opis ryzyka | Wpływ na dzieci |
|---|---|---|
| Spersonalizowane odpowiedzi | Wymagają zbierania wrażliwych danych osobowych | Naruszenie prywatności i trudności z uzyskaniem świadomej zgody |
| Algorytmiczna stronniczość | Systemy “nadmiernie zgadzają się” z użytkownikami | Wzmacnianie szkodliwych myśli i zachowań |
| Parasocjalne relacje | Jednostronne przywiązanie emocjonalne | Izolacja od rzeczywistych kontaktów społecznych |
Przypadki problemów w praktyce
Dochodzenie FTC następuje po serii niepokojących incydentów. Przypadek 16‑letniego Adama Raine’a, którego rodzice pozwali OpenAI, twierdząc, że ChatGPT przyczynił się do samobójstwa chłopca, ukazuje skalę problemu. Podobnie, 14‑letni Sewell Setzer III popełnił samobójstwo po tym, jak rozwinął emocjonalną i seksualną relację z chatbotem Character.AI.
Wewnętrzne dokumenty Meta ujawnione przez Reuters pokazały, że wytyczne firmy pozwalały botom na prowadzenie “romantycznych lub zmysłowych” rozmów z dziećmi. Meta przyznała później, że była to błędna praktyka i zmieniła swoje zasady.
Odpowiedź branży technologicznej
W odpowiedzi na rosnące obawy, firmy rozpoczęły wprowadzanie środków bezpieczeństwa. OpenAI ogłosiło wdrożenie kontroli rodzicielskich w ChatGPT, które pozwolą rodzicom łączyć swoje konta z kontami nastolatków oraz otrzymywać alerty, gdy system wykryje “ostry dystres” u dziecka.
Meta z kolei zmieniła sposób szkolenia swoich botów AI, zabraniając im angażowania się z nastolatkami w rozmowy dotyczące samookaleczenia, samobójstwa, zaburzeń odżywiania czy nieodpowiednich romantycznych konwersacji. Firma ograniczyła również dostęp nastolatków do niektórych postaci AI, które mogłyby prowadzić nieodpowiednie rozmowy.
Praktyczne zastosowania wyników dochodzenia
Wyniki badania FTC mogą wpłynąć na przyszłe regulacje branży AI. Komisja planuje wykorzystać zebrane informacje do kształtowania polityki dotyczącej ochrony dzieci online oraz potencjalnych działań egzekucyjnych. Przewodniczący FTC Andrew Ferguson podkreślił, że ochrona dzieci w internecie jest priorytetem, jednocześnie zapewniając, że Stany Zjednoczone pozostaną liderem w dziedzinie innowacji AI.
Eksperci sugerują, że firmy powinny wdrożyć kompleksowe systemy wykrywania sytuacji kryzysowych, lepsze weryfikacje wieku oraz przejrzyste informowanie użytkowników o tym, że wchodzą w interakcję z AI, a nie z człowiekiem. Niektóre stany amerykańskie rozważają już wprowadzenie przepisów wymagających od platform AI przypominania młodym użytkownikom o sztucznej naturze ich rozmówcy.
Chińscy giganci przyspieszają niezależność chipową w sztucznej inteligencji
Chińskie firmy technologiczne Alibaba i Baidu rozpoczęły wykorzystywanie własnych procesorów do trenowania modeli sztucznej inteligencji, częściowo zastępując układy amerykańskiej firmy Nvidia. Ten strategiczny ruch oznacza przełomowy moment w globalnej rywalizacji o dominację w obszarze AI i odzwierciedla rosnące dążenia Chin do technologicznej niezależności.
Przełomowe rozwiązania technologiczne
Alibaba od początku 2025 roku wykorzystuje procesor Zhenwu do trenowania mniejszych modeli AI w swoich usługach chmurowych. Pracownicy firmy potwierdzają, że wydajność tego układu dorównuje chipowi H20 od Nvidia – produktowi zaprojektowanemu specjalnie dla chińskiego rynku po wprowadzeniu amerykańskich ograniczeń eksportowych. To znaczące osiągnięcie technologiczne, biorąc pod uwagę że H20 jest obecnie najmocniejszym procesorem AI, który Nvidia może legalnie sprzedawać w Chinach.
Równolegle Baidu testuje swój procesor Kunlun P800 do trenowania najnowszych wersji flagowego modelu językowego Ernie. Firma dysponuje klastrem 30 000 chipów P800 trzeciej generacji, zdolnym wspierać trenowanie modeli o setkach miliardów parametrów lub jednoczesne dostrajanie przez tysiąc użytkowników. Procesor Kunlun P800 został zoptymalizowany pod kątem inferencji AI i zapewnia 20‑50 % wyższą efektywność niż konkurencyjne rozwiązania.
Kontekst geopolityczny i ograniczenia eksportowe
Przejście na własne procesory wynika z zaostrzających się amerykańskich ograniczeń eksportowych, które uniemożliwiają chińskim firmom dostęp do najnowocześniejszych chipów AI. Władze USA argumentują konieczność ochrony bezpieczeństwa narodowego i ekonomicznego, ograniczając dostęp Chin do technologii mogących wspierać zastosowania wojskowe. W odpowiedzi Pekin wywiera presję na krajowe firmy, aby zwiększyły wykorzystanie technologii produkcji krajowej.
Chińskie przedsiębiorstwa w pierwszych miesiącach 2025 roku złożyły zamówienia na chipy H20 o wartości 16 miliardów dolarów, próbując zabezpieczyć około miliona jednostek przed zamknięciem okna eksportowego. Jednak nawet te zapasy szybko się kurczą, zmuszając firmy do przyspieszenia adopcji krajowych alternatyw.
Porównanie wydajności z rozwiązaniami Nvidia
Procesor Kunlun drugiej generacji oferuje wydajność 512‑768 TOPS dla obliczeń INT8, 128‑192 TOPS dla INT/FP16 oraz 32‑48 TOPS dla INT/FP32. W porównaniu z Nvidia A100, który zapewnia 624/1248 TOPS INT8 i 19.5 TFLOPS FP32, chińskie chipy pozostają konkurencyjne w określonych zastosowaniach, choć nadal ustępują w najwyższej klasie wydajności.
| Parametr | Kunlun II | Nvidia A100 |
|---|---|---|
| INT8 TOPS | 512‑768 | 624/1248* |
| INT/FP16 TOPS | 128‑192 | 312/624* |
| INT/FP32 TOPS | 32‑48 | 19.5 |
*z wykorzystaniem sparsity
Praktyczne zastosowania i wpływ na rynek
Chińskie banki i firmy internetowe już rozpoczęły wykorzystywanie procesorów P800 w swoich systemach. Alibaba nie planuje sprzedaży swoich chipów zewnętrznym klientom, zamiast tego oferuje moc obliczeniową przez usługi chmurowe, co wzmacnia pozycję jej działu cloud computing. Przychody związane z produktami AI Alibaba odnotowały wzrost wyrażony trzycyfrową liczbą przez osiem kolejnych kwartałów.
Rozwój krajowych chipów AI może znacząco wpłynąć na przyszłość Nvidia w Chinach. Firma nadal pracuje nad nowymi produktami dla chińskiego rynku, włączając chip B30A oparty na architekturze Blackwell, ale jego zatwierdzenie przez amerykańskie władze pozostaje niepewne.
Ta transformacja technologiczna sygnalizuje nową fazę w globalnej rywalizacji o dominację w sztucznej inteligencji, gdzie samowystarczalność półprzewodnikowa staje się kluczowym elementem strategii technologicznej państw.
Źródła
- What the International AI Safety Report 2025 has to say
- Sharing our latest differential privacy milestones and advancements
- Training Data Extraction Attacks: The Essential Guide
- Responsible AI Progress Report
- Making ML models differentially private: Best practices and open challenges
- What Is AI Training Data Extraction? A Combination Of Techniques
- Advanced AI Tool for Identifying and Mitigating Security Flaws
- Red AI Range Tool Enhances AI Red Teaming with Vulnerability Discovery and Mitigation
- ErdemOzgen/RedAiRange: AI Red Teaming Range
- Red AI Range: Advanced AI Tool for Identifying and Mitigating Security Flaws
- AWS Weekly Roundup: Strands Agents Surpasses 1M Downloads
- AWS AI Agent Global Hackathon
- Announcing Amazon EC2 M4 and M4 Pro Mac instances
- LocalStack integration in VS Code IDE
- Amazon CloudFront IPv6 origins support
- AWS CDK Refactor
- FTC Launches Inquiry into AI Chatbots Acting as Companions
- FTC Issues Orders to Companies Providing AI Chatbots
- FTC launches inquiry into AI chatbot companions and their effects on children
- The potential and limitations of Artificial Intelligence chatbots
- Meta’s AI rules have let bots hold ‘sensual’ chats with children
- Alibaba, Baidu begin using own chips to train AI models
- Alibaba’s AI Chip Challenges NVIDIA’s H20 in China Market
- Alibaba, Baidu begin using own AI chips as China shifts
- China’s Baidu says its Kunlun chip cluster can train DeepSeek-like models





