Przełomy w matematyce, kompresja modeli i automatyzacja arkuszy

zajawka nowosci

Spis treści

Przełom w matematyce: AI rozwiązuje problemy wymagające miliardów kroków

Zespół naukowców z California Institute of Technology, kierowany przez Sergeia Gukova, opracował przełomowy algorytm uczenia maszynowego zdolny do rozwiązywania problemów matematycznych wymagających setek milionów, a nawet miliardów kroków obliczeniowych. System ten stanowi znaczący postęp w stosowaniu sztucznej inteligencji w matematyce czystej, wykorzystując uczenie przez wzmacnianie do rozwiązania długotrwałych zagadek matematycznych.

Hipoteza Andrews-Curtis jako pole testowe

Głównym wyzwaniem, którym zajął się zespół, była hipoteza Andrews-Curtis – nierozwiązany problem z teorii grup sformułowany w 1965 roku przez Jamesa Andrews i Mortona Curtis. Problem ten dotyczy możliwości redukcji złożonych konfiguracji matematycznych do ich najprostszej formy za pomocą skończonej sekwencji trzech podstawowych ruchów. Ali Shehper, główny autor badania z Rutgers University, porównuje to wyzwanie do “próby znalezienia drogi przez labirynt wielkości Ziemi”.

Hipoteza pozostaje nierozwiązana od 60 lat, częściowo dlatego, że wymaga przeszukania przestrzeni tak ogromnej, że znalezienie właściwej ścieżki może wymagać testowania miliardów kombinacji ruchów. Tradycyjne metody obliczeniowe są niewystarczające dla problemów tej skali – średnia partia szachów trwa około 30-40 ruchów, podczas gdy te problemy matematyczne mogą wymagać miliona lub więcej kroków.

Architektura systemu dwuagentowego

Innowacją zespołu z Caltech było opracowanie systemu wykorzystującego dwa specjalistyczne agenty AI: gracza i obserwatora. Gracz wykonuje podstawowe ruchy w przestrzeni matematycznej, podczas gdy obserwator analizuje jego działania i tworzy “superwruchy” – złożone sekwencje podstawowych operacji, które pozwalają na większe skoki w przestrzeni rozwiązań.

System wykorzystuje uczenie przez wzmacnianie, gdzie agenty otrzymują nagrody za poprawne rozwiązania. Kluczowe jest stopniowe zwiększanie trudności – najpierw system trenuje na prostych problemach, a następnie przechodzi do coraz bardziej złożonych zagadnień. “Agent próbuje różnych ruchów i otrzymuje nagrody za rozwiązywanie problemów”, wyjaśnia Shehper. “Zachęcamy program do robienia więcej tego samego, zachowując jednocześnie pewien poziom ciekawości”.

Konkretne osiągnięcia matematyczne

Zespół osiągnął znaczące rezultaty, rozwiązując dwie rodziny problemów związanych z hipotezą Andrews-Curtis, które pozostawały otwarte przez dziesiąt lat. Udało im się obalić potencjalne kontrprzykłady, które były badane przez około 25 lat, oraz poczynić postęp w innej rodzinie kontrprzykładów otwartych przez 44 lata. Choć nie rozwiązali głównej hipotezy, obalenie kontrprzykładów wzmacnia wiarę w prawdziwość oryginalnej hipotezy.

Wyniki te zostały niezależnie potwierdzone przez badaczy z University of Liverpool. Co więcej, po publikacji wstępnych wyników, do zespołu dołączyli trzej nowi matematycy: Lucas Fagan i Zhenghan Wang z UC Santa Barbara oraz Yang Qiu z Nankai University w Chinach. Grupa opublikowała kolejny preprint opisujący rozwiązanie jeszcze większej liczby rodzin potencjalnych kontrprzykładów.

Praktyczne zastosowania i przyszłość

Chociaż obecnie system nie może przewidywać rzadkich zdarzeń o dramatycznych konsekwencjach, takich jak krach na rynku finansowym, zawiera elementy które mogłyby być kluczowe dla rozwoju takich zdolności predykcyjnych. “Zasadniczo nasz program wie, jak się uczyć”, mówi Gukov. “Myśli poza schematami”.

Zespół planuje zastosowanie swojego podejścia do szerokiego zakresu problemów w matematyce i poza nią. Przyszłe systemy AI mogłyby potencjalnie przewidywać, jak złożone maszyny mogą zawieść po latach użytkowania, jak systemy autonomicznego prowadzenia mogą generować rzadkie ale niebezpieczne błędy, czy jak może rozwijać się choroba u danej osoby na przestrzeni dekad. Możliwe zastosowania obejmują medycynę, kryptografię, finanse i modelowanie klimatu.

System różni się od konwencjonalnych programów AI takich jak ChatGPT, które produkują typowe, przewidywalne odpowiedzi. “Jeśli poprosisz ChatGPT o napisanie listu, wymyśli coś typowego. Jest dobrym papugą”, wyjaśnia Gukov. “Nasz program jest dobry w wymyślaniu wartości odstających”. Ta zdolność do generowania nietypowych, innowacyjnych rozwiązań może być kluczowa dla przyszłych odkryć matematycznych.

Nowa era kompresji modeli: Rodzina Hunyuan od Tencent wprowadza przełom w open source AI

Tencent rozszerzył swoją ofertę modeli sztucznej inteligencji o nową rodzinę Hunyuan, która stanowi znaczący krok naprzód w rozwoju uniwersalnych modeli językowych o otwartym kodzie źródłowym. Te zaawansowane systemy AI zostały zaprojektowane jako skalowalne rozwiązania zdolne do efektywnego działania zarówno na małych urządzeniach brzegowych, jak i w wymagających systemach produkcyjnych o wysokiej przepustowości.

Architektura modeli i parametry techniczne

Rodzina Hunyuan obejmuje modele o różnej wielkości parametrów: 0.5B, 1.8B, 4B oraz 7B, co zapewnia deweloperom znaczną elastyczność w doborze odpowiedniego rozwiązania do konkretnych zastosowań. Wszystkie modele wykorzystują strategię treningową podobną do potężniejszego modelu Hunyuan-A13B, dziedzicząc jego charakterystyki wydajnościowe.

Kluczową innowacją jest natywne wsparcie dla niezwykle długiego okna kontekstu wynoszącego 256K tokenów. Ta funkcjonalność umożliwia modelom utrzymanie stabilnej wydajności podczas przetwarzania długich tekstów, co jest fundamentalne dla złożonych analiz dokumentów, rozszerzonych konwersacji i dogłębnego generowania treści.

Grouped Query Attention – rewolucja w efektywności obliczeniowej

Modele Hunyuan wykorzystują technikę Grouped Query Attention (GQA), która stanowi znaczącą optymalizację mechanizmu uwagi. GQA grupuje zapytania (queries) w podgrupy, gdzie każda grupa dzieli wspólne nagłówki kluczy i wartości (key-value heads). To podejście pozwala zredukować przepustowość pamięci nawet o 90% w porównaniu z tradycyjnym Multi-Head Attention (MHA), przy jednoczesnym zachowaniu wysokiej jakości wyników.

MetodaSzybkość inferencjiDokładność (vs. MHA)Zużycie pamięci
Multi-Head AttentionBazowa100%Najwyższe
Multi-Query Attention1.5-2× szybciej↓ 5-15%Najniższe
Grouped Query Attention1.3-1.4× szybciej↓ 1-3%Średnie

AngleSlim – zaawansowane narzędzie kompresji

Tencent opracował własne narzędzie kompresji AngleSlim, oferujące dwa główne typy kwantyzacji. Pierwszą metodą jest kwantyzacja statyczna FP8, wykorzystująca 8-bitowy format liczb zmiennoprzecinkowych. Proces ten używa niewielkiej ilości danych kalibracyjnych do pre-określenia skali kwantyzacji bez konieczności pełnego przeszkolenia modelu.

Drugą techniką jest kwantyzacja INT4, realizowana za pomocą algorytmów GPTQ i AWQ. Algorytm GPTQ przetwarza wagi modelu warstwa po warstwie, minimalizując błędy kwantyzacji poprzez proces optymalizacji aproksymujący odwrotność macierzy Hessjana. Z kolei algorytm AWQ analizuje statystycznie amplitudę wartości aktywacji, obliczając współczynnik skalowania dla każdego kanału wag, co pozwala zachować więcej informacji podczas procesu kompresji.

Wydajność benchmarkowa i praktyczne zastosowania

Testy porównawcze potwierdzają wysoką wydajność modeli Hunyuan w różnych zadaniach. Model Hunyuan-7B osiąga wynik 79.82 na benchmarku MMLU, 88.25 na GSM8K oraz 74.85 na benchmarku MATH, demonstrując solidne umiejętności rozumowania i matematyczne. Wersje dostrojone instrukcjami (instruction-tuned) wykazują imponujące rezultaty w specjalistycznych obszarach – model Hunyuan-7B-Instruct osiąga 81.1 punktów na benchmarku AIME 2024 w matematyce i 76.5 punktów na OlympiadBench w naukach ścisłych.

Szczególnie istotne są minimalne straty wydajności po kwantyzacji. Na benchmarku DROP, model Hunyuan-7B-Instruct osiąga 85.9 punktów w formacie bazowym B16, 86.0 z kwantyzacją FP8 oraz 85.7 z kwantyzacją Int4 GPTQ, co potwierdza, że wzrost efektywności nie odbywa się kosztem dokładności.

Deployment i integracja

Dla wdrożenia modeli Hunyuan, Tencent zaleca wykorzystanie sprawdzonych frameworków takich jak TensorRT-LLM, vLLM lub SGLang do serwowania modeli i tworzenia punktów końcowych API kompatybilnych z OpenAI. To podejście zapewnia płynną integrację z istniejącymi przepływami pracy deweloperskiej.

Kombinacja wysokiej wydajności, efektywności i elastyczności wdrażania pozycjonuje rodzinę Hunyuan jako silnego konkurenta w segmencie modeli AI o otwartym kodzie źródłowym. Dostępność na platformie Hugging Face oraz wsparcie dla hybrydowego rozumowania – umożliwiającego przełączanie między trybami szybkiego i wolnego myślenia – czyni te modele atrakcyjnym wyborem dla różnorodnych zastosowań komercyjnych i badawczych.

Nowe narzędzie AI Sheets od Hugging Face revolucjonizuje pracę z arkuszami kalkulacyjnymi

Hugging Face, wiodąca platforma open-source dla sztucznej inteligencji, wprowadził rewolucyjne narzędzie AI Sheets, które fundamentalnie zmienia sposób tworzenia i zarządzania danymi w arkuszach kalkulacyjnych. To narzędzie łączy znajomy interfejs arkusza kalkulacyjnego z zaawansowanymi możliwościami modeli AI, oferując bezproblemową integrację z tysiącami otwartych modeli dostępnych na platformie Hugging Face Hub.

Architektura techniczna i funkcjonalności

AI Sheets wykorzystuje interfejs podobny do tradycyjnych arkuszy kalkulacyjnych, ale rozbudowany o możliwości generatywnej sztucznej inteligencji. Narzędzie można uruchomić lokalnie lub bezpośrednio z Hugging Face Hub, oferując elastyczne opcje wdrażania. System wspiera integrację z różnymi dostawcami inferecji, w tym Groq, Cerebras czy OpenAI, umożliwiając dostęp do najnowszych modeli językowych.

Kluczową innowacją jest mechanizm tworzenia kolumn poprzez pisanie promptów. Użytkownik może wykorzystać składnię {{nazwa_kolumny}} do odwoływania się do danych z innych kolumn, co pozwala na złożone operacje przetwarzania danych bez konieczności programowania. System automatycznie wykorzystuje zmodyfikowane i zatwierdzone komórki jako przykłady few-shot przy generowaniu nowej zawartości, implementując mechanizm uczenia się na podstawie feedbacku użytkownika.

Zaawansowane zastosowania praktyczne

AI Sheets oferuje szeroki zakres funkcjonalności dla różnych scenariuszy użycia. Narzędzie umożliwia porównywanie wydajności różnych modeli AI przez tworzenie wielu kolumn z różnymi modelami i automatyczne ocenianie ich wyników przy użyciu LLM-as-Judge. Przykładowo, można utworzyć kolumnę z promptem “Oceń odpowiedzi na następujące pytanie: {{prompt}}. Odpowiedź 1: {{model1}}. Odpowiedź 2: {{model2}}”, gdzie model1 i model2 to kolumny zawierające odpowiedzi różnych modeli.

System wspiera również zaawansowane operacje transformacji danych, takie jak czyszczenie tekstu, kategoryzację treści czy wzbogacanie zbiorów danych o dodatkowe informacje. Funkcja wyszukiwania w internecie pozwala na pobieranie aktualnych informacji, co jest szczególnie przydatne przy zadaniach wymagających świeżych danych, takich jak uzupełnianie brakujących kodów pocztowych dla adresów.

FunkcjonalnośćOpisPrzykład zastosowania
Porównywanie modeliTestowanie różnych modeli AI na tych samych danychTworzenie aplikacji webowych z wykorzystaniem różnych modeli kodowania
Klasyfikacja danychAutomatyczne kategoryzowanie treściKlasyfikowanie pytań według tematyki matematycznej
Wzbogacanie zbiorówDodawanie nowych informacji do istniejących danychGenerowanie opisów produktów na podstawie nazw
Analiza sentymentuOcena emocjonalnego wydźwięku tekstówAnaliza opinii klientów o produkcie

Integracja z ekosystemem open-source

AI Sheets wyróżnia się ścisłą integracją z platformą Hugging Face Hub, oferując dostęp do tysięcy otwartych modeli AI. Narzędzie wspiera różnych dostawców inferecji, w tym modele gpt-oss od OpenAI, co zapewnia użytkownikom szeroką gamę opcji technologicznych. System umożliwia również uruchamianie lokalnych modeli, takich jak te hostowane przez Ollama, co zwiększa elastyczność wdrażania.

Architektura narzędzia została zaprojektowana z myślą o skalowaniu i reprodukowalności. Po zakończeniu pracy nad zbiorem danych, AI Sheets generuje plik konfiguracyjny zawierający wszystkie użyte prompty i ustawienia, który można wykorzystać do replikacji procesu lub uruchomienia go na większą skalę za pomocą Hugging Face Jobs.

AI Sheets reprezentuje znaczący krok w kierunku demokratyzacji dostępu do zaawansowanych narzędzi AI. Przez eliminację barier technicznych, narzędzie umożliwia analitykom danych, menedżerom produktu, a nawet studentom wykorzystywanie potężnych modeli uczenia maszynowego bez konieczności głębokiej znajomości programowania. To podejście może przyspieszyć innowacje w dziedzinie AI, umożliwiając szybsze prototypowanie i dostrajanie aplikacji opartych na sztucznej inteligencji.

Źródła

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Powiązane posty

Zacznij wpisywać wyszukiwane hasło powyżej i naciśnij Enter, aby wyszukać. Naciśnij ESC, aby anulować.

Powrót do góry
Hej. Nie zapomnij podzielić się opinią oraz udostępnić dalej.