Sztuczna inteligencja pod kontrolą. Korea Płd wprowadza przełomowe prawo

Korea Południowa wśród pionierów. 22 stycznia ma wejść w życie kompleksowe prawo o sztucznej inteligencji. 

AI to nie tylko urocze filmiki z tańczącymi kotkami – to także całkiem realne zagrożenie. I nie mam tu na myśli tylko ryzyka utraty miejsc pracy lub błędów popełnianych przez algorytmy – sztuczna inteligencja to bowiem także generowanie fałszywych treści, powodujące coraz częściej spore trudności w odróżnieniu prawdy od fałszu. Generacja fałszywych treści przez modele językowe może mieć charakter umyślny albo nieumyślny. W pierwszym przypadku mamy do czynienia z klasyczną dezinformacją bądź manipulacją przekazem – system został zaprojektowany albo użyty w taki sposób, by wytwarzać treści nieprawdziwe. W drugim przypadku mówimy o tzw. halucynacjach, przy czym pojęcie to bywa mylące, ponieważ sugeruje błąd lub wadliwe działanie systemu. W rzeczywistości natomiast mamy do czynienia z poprawnym, choć problematycznym, skutkiem przyjętych założeń projektowych. Model językowy nie posiada wiedzy, nie operuje na faktach i nie weryfikuje prawdziwości swoich wypowiedzi. Jego zadaniem jest generowanie najbardziej prawdopodobnej kontynuacji tekstu na podstawie rozkładów statystycznych wyuczonych z danych treningowych.

Halucynacja pojawia się wówczas, gdy model zostaje zapytany o coś, co wykracza poza jego rzeczywiste możliwości predykcyjne: dotyczy zagadnień rzadkich, słabo reprezentowanych w danych, niejednoznacznych albo wymagających rozumowania, którego nie da się sprowadzić do korelacji językowych. A ponieważ musi wygenerować jakąś odpowiedź – nie może po prostu napisać “nie mam danych” lub “nie wiem”, to… zmyśla. Produkuje wypowiedź językowo spójną i przekonującą, lecz fałszywą – w całości lub części. Z technicznego punktu widzenia nie jest to błąd wykonania, lecz dokładnie to, do czego model został zoptymalizowany. Algorytmy mogą więc siać dezinformację, wpływać na wybory, oraz rujnować prywatne życie – o czym ostatnio przekonały się ofiary najnowszego trendu w użyciu Groka. Użytkownicy portalu X masowo prosili chatbota Elona Muska o wygenerowanie zdjęć w bikini m.in. polityków, sportowców czy aktorów. Samo to jest naruszeniem prawa do prywatności, budzi jednak także obawy o możliwości wykorzystania Groka w generowaniu treści pornograficznych – to z tego względu Indonezja i Malezja, jako pierwsze państwa na świecie, zablokowały dostęp do chatbota. 

Zagrożenia płynące z gwałtownego rozwoju AI Korea Południowa dostrzegła już w 2024 roku – parlament uchwalił wówczas przełomowy akt prawny regulujący rozwój i stosowanie sztucznej inteligencji. Basic Act on the Development of Artificial Intelligence and the Establishment of a Foundation for Trustworthiness, powszechnie określany jako AI Basic Act lub Framework Act on AI, miał dość długi okres vacatio legis, wszedł bowiem w życie dopiero w styczniu 2026 roku. Cel jest prosty: zamiast  rozwiązywać każdy problem osobno, zrobić to kompleksowo – dlatego ustawa łączy wcześniej proponowane 19 odrębnych projektów prawnych w jeden podstawowy akt.

Korea Południowa od lat należy do światowej czołówki w dziedzinie nowych technologii, w tym sztucznej inteligencji, półprzewodników i telekomunikacji. A jeśli coś rozwija się tak dynamicznie i w takim stopniu jak AI wpływa na życie ludzi, rodzi się potrzeba stworzenia jasnych zasad prawnych. AI Basic Act ma być odpowiedzią państwa na wszystkie wyzwania, jakie sztuczna inteligencja przed nami stawia – zarówno gospodarcze, jak i społeczne. Ustawa ma charakter kompleksowy, co oznacza, że obejmuje szerokie spektrum zastosowań sztucznej inteligencji, niezależnie od branży. Jej celem nie jest wyłącznie ograniczanie ryzyka, lecz przede wszystkim wspieranie innowacji przy jednoczesnym zapewnieniu bezpieczeństwa, przejrzystości i poszanowania praw obywateli. Nowe przepisy mają stworzyć spójne ramy prawne dla dynamicznie rozwijającego się sektora AI, jednocześnie wzmacniając zaufanie społeczne do nowych technologii. Jednym z głównych celów AI Basic Act jest stworzenie podstaw pod tzw. „trustworthy AI”, czyli sztuczną inteligencję, której można zaufać. Ustawa wskazuje ogólne zasady, jakimi powinny kierować się zarówno instytucje publiczne, jak i firmy korzystające z AI. Chodzi m.in. o przejrzystość algorytmów, bezpieczeństwo technologii, ochronę danych osobowych, brak dyskryminacji oraz możliwość kontroli systemów przez człowieka. Od teraz firmy działające w obszarze AI muszą informować użytkowników, że produkt lub usługa korzysta z AI, wyraźnie oznaczać treści generowane przez AI (szczególnie generatywne treści, np. obrazy czy teksty), wdrażać mechanizmy zarządzania ryzykiem przy AI o dużym wpływie (tzw. high-impact AI), a także tworzyć i dokumentować plany zarządzania ryzykiem. Niektóre systemy, np. te wykorzystywane w opiece zdrowotnej, transporcie, usługach publicznych czy analizie danych wrażliwych, są uznawane za high-impact AI. W ich przypadku obowiązują dodatkowe wymagania dotyczące monitoringu ciągłego działania AI, mechanizmów wyjaśniania decyzji AI, oceny bezpieczeństwa i wpływu na użytkowników. Co istotne, regulacje obejmą zarówno duże korporacje, jak i małe firmy technologiczne.

AI Basic Act wyraźnie podkreśla rolę państwa jako koordynatora polityki w zakresie sztucznej inteligencji. Ustawa przewiduje opracowanie narodowych strategii rozwoju AI, wspieranie badań i rozwoju, inwestycje w infrastrukturę oraz programy edukacyjne mające przygotować społeczeństwo i rynek pracy na erę algorytmów. Z praktycznych kwestii: ustawa przewiduje powołanie Narodowego Komitetu ds. AI, który będzie koordynował politykę AI, utworzenie AI Safety Institute – instytutu odpowiadającego za badania nad bezpieczeństwem i ryzykiem AI, wprowadzenie wymogu przygotowywania i aktualizacji krajowego planu rozwoju AI co 3 lata. 

Władze z nowej ustawy są zadowolone, nieco bardziej sceptycznie patrzy na nią natomiast biznes. Przedsiębiorcy narzekają przede wszystkim na zbyt krótki czas, jaki ustawa pozostawia na dostosowanie się do nowych regulacji. Spore kontrowersje budzi też obowiązek oznaczania treści tworzonych z wykorzystaniem sztucznej inteligencji – firmy argumentują, że może to zniechęcać potencjalnych klientów do ich treści, a tym samym obniżać ich wartość rynkową. A to z kolei może prowadzić do wyprowadzki przedsiębiorstw do państw, w których panują mniej restrykcyjne przepisy.  

Korea Południowa nie zamierza walczyć z AI – wręcz przeciwnie, chce wykorzystać ją jako jeden z głównych motorów technologicznego rozwoju. AI Basic Act to próba znalezienia równowagi między innowacyjnością a ochroną praw człowieka i godności ludzkiej. A przy tym sposób na zwiększenie konkurencyjności – w oczach wielu potencjalnych partnerów biznesowych Korea Południowa stanie się dzięki tej ustawie bardziej wiarygodna – zwłaszcza Unii Europejskiej i USA, które również pracują nad własnymi regulacjami w tym zakresie. 

Blanka Katarzyna Dżugaj

Dodaj komentarz