Spis treści
- AI w służbie kardiologii: Oszczędność czasu, kosztów i ratowanie życia
- Unijny Akt AI – co pracodawcy muszą wiedzieć o systemach wysokiego ryzyka
- OpenAI otwiera się na modele open-source – strategiczna zmiana w obliczu konkurencji
AI w służbie kardiologii: Oszczędność czasu, kosztów i ratowanie życia
Sztuczna inteligencja (AI) rewolucjonizuje opiekę kardiologiczną, obiecując redukcję obciążenia lekarzy, wsparcie równości w dostępie do leczenia i wzmocnienie relacji pacjent-lekarz. Podczas sesji American College of Cardiology 2025 (ACC.25) eksperci debatowali nad odpowiedzialnym wdrażaniem AI, podkreślając, że kluczem jest zrównoważone podejście.
Redukcja obciążenia pracy dzięki AI
Panel ekspercki zgodził się, że AI zostanie powszechnie przyjęta, jeśli znacząco zmniejszy obciążenie klinicystów. Systemy elektronicznej dokumentacji medycznej (EHR) i związane z nimi obowiązki dokumentacyjne są wyczerpujące. AI może to zmienić, przetwarzając rozmowy z pacjentami na ustrukturyzowaną dokumentację i automatycznie pobierając istotne dane pacjentów z różnych systemów.
AI ma potencjał usprawnienia procesu uzyskiwania wcześniejszych autoryzacji. Dodatkowo, może pomóc w zadaniach regulacyjnych, takich jak przygotowywanie dokumentacji i zarządzanie procesami obsługi skarg, co często angażuje setki pracowników.
Zaufanie, bezpieczeństwo i rola człowieka
Zaufanie pacjentów do lekarzy i lekarzy do narzędzi AI jest kluczowe. AI powinna wzmacniać opiekę kliniczną, nie osłabiając relacji pacjent-lekarz. Nawet gdy AI staje się coraz bardziej zaawansowana w analizowaniu danych pacjentów i dopasowywaniu ich do wytycznych klinicznych, ostateczne decyzje dotyczące leczenia powinny opierać się na ludzkim osądzie. Technologia przyspiesza podejmowanie decyzji, ale ekspertyza lekarza pozostaje niezbędna.
Wyrównywanie szans w dostępie do opieki zdrowotnej
AI ma potencjał zmniejszenia nierówności w opiece zdrowotnej, szczególnie poprzez wsparcie niedostatecznie obsługiwanych populacji i systemów opieki zdrowotnej z ograniczonymi zasobami. AI może umożliwić placówkom medycznym zapewnienie wyższej jakości opieki opartej na danych. Integracja AI z EHR może obniżyć bariery adopcji i ułatwić szersze zastosowanie.
Aby AI mogła naprawdę wyrównywać szanse, narzędzia muszą być rozwijane z wykorzystaniem zróżnicowanych danych, oceniane w rzeczywistych warunkach i wdrażane z uwzględnieniem kontekstu, aby aktywnie przeciwdziałać istniejącym uprzedzeniom.
Unijny Akt AI – co pracodawcy muszą wiedzieć o systemach wysokiego ryzyka
Unia Europejska wprowadziła pierwsze na świecie kompleksowe prawodawstwo regulujące sztuczną inteligencję. Od 2 lutego 2025 r. obowiązują już przepisy dotyczące najbardziej ryzykownych zastosowań AI, a cały akt wejdzie w życie do 1 sierpnia 2026 r. Ta regulacja ma kluczowe znaczenie dla przedsiębiorców wykorzystujących narzędzia oparte na sztucznej inteligencji.
Kategorie ryzyka w AI Act
Unijny akt klasyfikuje systemy AI według czterech poziomów ryzyka, nakładając odpowiednie obowiązki dla każdej kategorii. Podejście oparte na ryzyku ma na celu równoważenie innowacji z bezpieczeństwem użytkowników i ochroną ich praw. Kategorie te obejmują systemy o minimalnym, ograniczonym, wysokim i niedopuszczalnym ryzyku.
Systemy o minimalnym ryzyku, które stanowią większość obecnych rozwiązań AI na rynku UE, pozostaną w zasadzie nieuregulowane. Systemy o ograniczonym ryzyku podlegają jedynie podstawowym wymogom przejrzystości, zapewniającym świadomość użytkowników o interakcji z AI.
Systemy wysokiego ryzyka w kontekście HR
Szczególnie istotne dla pracodawców są przepisy dotyczące systemów wysokiego ryzyka, które obejmują rozwiązania wykorzystywane w procesach kadrowych. Do tej kategorii zaliczają się narzędzia AI stosowane do:
- Skanowania CV i wstępnej selekcji kandydatów do pracy
- Wspomagania procesów onboardingowych
- Podejmowania decyzji HR
- Zarządzania wydajnością pracowników
System AI zostanie zakwalifikowany jako wysokiego ryzyka tylko wtedy, gdy stwarza znaczące zagrożenie dla zdrowia, bezpieczeństwa lub praw podstawowych. Rozwiązania wykonujące wąskie zadania proceduralne lub mające na celu jedynie usprawnienie wcześniej zakończonej aktywności człowieka nie będą uznawane za systemy wysokiego ryzyka.
Praktyki zakazane od lutego 2025
Od 2 lutego 2025 r. całkowicie zakazane jest używanie systemów AI o niedopuszczalnym ryzyku. Dotyczy to ośmiu kategorii zastosowań, w tym:
- Systemów scoringu społecznego (rankingowania użytkowników na podstawie cech osobowości)
- Rozpoznawania emocji w miejscach pracy i instytucjach edukacyjnych
- Wykorzystywania danych biometrycznych do kategoryzacji według cech wrażliwych (płeć, religia, pochodzenie etniczne)
- Manipulacji poznawczo-behawioralnej
Za nieprzestrzeganie przepisów grożą surowe kary administracyjne – maksymalnie 35 milionów euro lub do 7% całkowitego rocznego światowego obrotu przedsiębiorstwa z poprzedniego roku finansowego.
Co powinni zrobić pracodawcy?
Firmy wykorzystujące systemy AI w procesach HR powinny niezwłocznie podjąć działania dostosowawcze. Od lutego 2025 obowiązuje również wymóg AI Literacy, zobowiązujący pracodawców do zapewnienia pracownikom odpowiedniej wiedzy i umiejętności w zakresie sztucznej inteligencji, niezbędnych do wykonywania zadań.
Proaktywne działania pozwolą utrzymać środowisko pracy zorientowane na człowieka i uniknąć zarówno wysokich kar finansowych, jak i negatywnych konsekwencji wizerunkowych.
OpenAI otwiera się na modele open-source – strategiczna zmiana w obliczu konkurencji
OpenAI, znane z tworzenia zaawansowanych modeli AI, takich jak ChatGPT, ogłosiło przełomową decyzję o opracowaniu bardziej otwartego modelu generatywnej sztucznej inteligencji. To znacząca zmiana w strategii firmy, która dotychczas była zwolennikiem zamkniętych, własnościowych rozwiązań. Decyzja ta jest odpowiedzią na rosnącą konkurencję ze strony takich firm jak Meta czy chiński DeepSeek, które zdobywają rynek dzięki otwartym modelom AI.
Dlaczego OpenAI zmienia podejście?
Do tej pory OpenAI broniło zamkniętego podejścia do swoich technologii, argumentując, że otwarte modele mogą być wykorzystywane w sposób nieetyczny lub zagrażać bezpieczeństwu. Jednak naciski ze strony rynku oraz partnerów biznesowych zmusiły firmę do rewizji swojej strategii. Wiele przedsiębiorstw i rządów unika korzystania z zamkniętych modeli AI z obawy o brak kontroli nad danymi i technologią.
Meta i DeepSeek oferują rozwiązania pozwalające użytkownikom na modyfikację modeli i pełną kontrolę nad ich wdrożeniem. Na przykład Meta osiągnęła miliard pobrań swojego modelu Llama, a DeepSeek wprowadził niedawno tani model R1, który zdobył ogromną popularność. Tego typu inicjatywy stają się coraz bardziej atrakcyjne dla firm poszukujących elastycznych i bezpiecznych rozwiązań.
Plany OpenAI
CEO OpenAI, Sam Altman, podkreślił, że decyzja o otwarciu modelu była długo rozważana, ale inne priorytety opóźniały jej realizację. Teraz firma planuje serię wydarzeń konsultacyjnych z deweloperami w San Francisco, Europie oraz regionie Azji i Pacyfiku. Celem jest zebranie opinii na temat nowego modelu i dostosowanie go do potrzeb użytkowników.
Warto dodać, że ogłoszenie to zbiegło się z sukcesem nowych funkcji generowania obrazów w ChatGPT, które przyciągnęły milion użytkowników w ciągu godziny od premiery. OpenAI finalizuje również rundę finansowania na kwotę 40 miliardów dolarów, co ma być największym tego typu przedsięwzięciem w historii startupów.
Praktyczne zastosowania nowego podejścia
Otwarcie modeli AI przez OpenAI może przynieść korzyści zarówno dla dużych firm technologicznych, jak i mniejszych przedsiębiorstw. Dzięki większej elastyczności deweloperzy będą mogli dostosowywać technologie AI do specyficznych potrzeb swoich organizacji. Ponadto otwarte modele mogą zwiększyć bezpieczeństwo danych poprzez możliwość lokalnego wdrożenia technologii.
Źródła
- Cardiologists’ Goal With AI: Save Time, Save Money, Save Lives
- OpenAI announces new ‘deep research’ tool for ChatGPT
- Risky AI systems: what are they and what do affected employers need to do?
- Akt w sprawie sztucznej inteligencji – Komisja Europejska
- Open Source AI: Jak DeepSeek zmienił zasady na rynku AI w 2025
- In shift, OpenAI announces open AI model





