W ostatnim czasie niemal każdy miał wrażenie, że usłyszy o ChatGPT otwierając przysłowiową lodówkę. Światowa prasa szalała dzięki modzie na sztuczną inteligencje i potężnej ilości uwagi, którą poświęcali jej nie tylko czytelnicy ale również inwestorzy! Wystarczy spojrzeć na ceny akcji spółek związanych z sektorem. Walory Microsoftu, Intela czy Nvidii reagowały euforią na każdą wzmiankę o dołożeniu cegiełki do rozwoju algorytmów AI. Jednak w miarę jak zainteresowanie branżą AI przez przedsiębiorców rosło, rosły także obawy podnoszone nie tylko przez regulatorów.
W ostatnich tygodniach wyraził je m.in. Elon Musk oraz prezydent USA, Joe Biden. Zdaniem Bidena, AI może mieć toksyczny wpływ na młodych ludzi podobnie do mediów społecznościowych ale nie to jest największym problemem. Najawiększm z nich jest kwestia bezpieczeństwa narodowego i wpływ na całą gospodarkę! W takim układzie powietrze z balonika 'AI’ zaczyna powoli uchodzić. Trend zostanie zatrzymany regulacjami, debatami ekonomistów i naukowców? Niewykluczone – Włochy już zablokowały Chat GPT4.
STOP AI
W zeszłym tygodniu pionierzy sztucznej inteligencji i eksperci wezwali największe laboratoria AI do wstrzymania systemów 'machine learningowych’ AI potężniejszych niż GPT-4. NA okres co najmniej sześciu miesięcy. Idzie zima? List otwarty udostępniony światu przez Future of Life Institute ostrzegł, że systemy AI z „inteligencją konkurencyjną dla człowieka” mogą stać się poważnym zagrożeniem dla samej ludzkości. To, co do niedawna brzmiało jak Sci-Fi zaczyna być prawdziwsze niż kiedykolwiek wcześniej. Wśród zagrożeń wymienia się możliwość przechytrzenia ludzkości przez AI i przejęcie kontroli nad całą, cyfrową cywilizacją! Naukowcy podkreślili pilną potrzebę opracowania zestawu protokołów regulujących rozwój i wdrażanie AI. List skłaniający ludzkość do przemyśleń i przestoju w rozwoju AI podpisało ponad 5 tysięcy prominentów. Wśród nich: główny naukowiec OpenAI, Yonas Kass, prezes Tesli Elon Musk i prekursor firmy Apple – Steve Wozniak.
Jakie regulacje?
Naukowcy nie chcą całkowitego zatrzymania rozwoju AI ale upewnienie się czy odbywa się on w odpowiednich warunkach. Konieczne jest stworzenie systemów bezpieczeństwa. Niebezpieczny wyścig po 'coraz mądrzejsze modele’ powinien zostać zatrzymany. W Australii na przykład rząd powołał już tzw. Narodowe Centrum Sztucznej Inteligencji, aby pomóc w rozwoju AI i całego systemu cyfrowego. Pod jego kontrolą znalazła się tzw. Responsible AI Network, która ma na celu napędzanie odpowiedzialnych regulacji.
Obecnie na świecie nie ma jednak żadnych konkretnych regulacji branży AI. Nie ma też żadnej kontroli nad algorytmicznym podejmowaniem decyzji i rozwiązywaniem problemów. Od teorii do praktyki jest daleka droga. W USA regulatorzy chcą interweniować w sektor kryptowalut ale powinni zająć się raczej regulacją AI. Do tej pory ustawodawcy za oceanem oparli się na istniejących przepisach – niepewnych i nie. Amerykańska Izba Handlowa wezwała niedawno do uregulowania AI, aby zapewnić, że nie zaszkodzi ona wzrostowi gospodarczemu i nie będzie zagrożeniem dla bezpieczeństwa narodowego. Nie podjęto jeszcze zdecydowanych działań.
UE i Chiny
Na tą chwilę w kwestii regulacji AI przoduje UE, w której 'urzędniczych rąk do pracy’ zdecydowanie nie brakuje. Europejskie regulacje AI mają zostać podzielone na trzy sektory. Aplikacje i systemy o „nieakceptowalnym ryzyku” będą zakazane. Systemy o wysokim ryzyku m.in. narzędzia skanujące, które tworzą rankingi kandydatów pod względem CV etc. będą podlegały szczególnym (uciążliwym) wymogom prawnym. Chociaż niektórzy twierdzą, że podejście UE będzie tłumić innowacje, Australia planuje je uważnie monitorować. Podejście Chin do AI skoncentrowało się do tej pory na kilku konkretnych przypadkach zastosowań sztucznej inteligencji. Regulacje w Państwie Środka mają skupić się na algorytmach generujących informacje uznane za szkodliwe. Przepisy z czasem mogą jednak zostać prześcignięte przez tempo rozwoju branży.
Dobrze czy źle?
Z jednej strony, generatywna AI stała się znana ponieważ potrafi tworzyć wszelkie formy treści. Radzi sobie z prostymi i skomplikowanymi zadaniami. Wykrywa błędy za człowieka. Z drugiej strony, może oszukiwać, pomagać w plagiatach. CTO firmy OpenAI, Mira Murati, zasugerowała, że powinien nastąpić ruch w kierunku uregulowania AI. Skoro twierdzą tak naukowcy i uczeni – prawdopodobnie wiedzą o czym mówią. Z drugiej strony przesadne regulacje mogą zaszkodzić postępowi technologicznemu. Przez wiele lat trwała biznesowa walka o to, czy AI powinno być regulowane. Oraz przede wszystkim – w jaki sposób. Jak zwykle finał ma miejsce prawdopodobnie 'gdy jest już za późno’. Według raportu firmy audytowej KPMG jednak większość ludzi opowiada się za regulacjami. AI wciąż brzmi obco i wpływa na wyobraźnie. Około 70% Brytyjczyków i Australijczyków uważa, że sektor AI powinien być objęty odpowiedzialnymi regulacjami.
Pół roku przerwy
Sześć miesięcy to z jednej strony dość krótko ale przerwa może dać wytchnienie i wyważyć wyścig zbrojeń po coraz 'inteligentniejsze’ algorytmy. Istnieje mała szansa by takowy ustąpił. Wydaje się także oczywiste, że technologia udostępniona ludziom od wielu lat znana była w Pentagonie i innych centrach militarnych rozwiniętych krajów. Do tej pory nie podjęto skutecznych, globalnych wysiłków na rzecz sensownego uregulowania kwestii SI. Nie wydaje się by światowy consensus odnośnie sztycznej inteligencji był w ogóle możliwy. Zwłaszcza w obliczu rywalizacji mocarstw. W liście otwartym podpisanym przez Muska pojawiło się pytanie o rolę rządów. Pojawił się także temat ryzyka jeśli AI wpadnie w ręce 'niepowołanych’ osób np. prezesów technologicznych spółek. Te jednak wciąż milczą na temat potencjalnych szkód, jakie może wyżądzić światu. Wobec obszernego komentarza Joe Bidena, który podkreślił pilną potrzebę regulacji możemy oczekiwać, że pierwszy wyraźny ruch regulacyjny nadejdzie z USA. Na tą chwilę pewne jest jedno – temat AI nie będzie wzbudzał wyłącznie fascynacji.
Może Cię zainteresuje: