Twórca sztucznej inteligencji, Geoffrey Hinton odszedł z Google po 10 latach pracy nad sieciami neuronowymi. Ostrzegł ludzi przed niewłaściwym użyciem możliwości AI, przez niepowołane do tego jednostki. Na przykład dyktatorów. Tymczasem ;udzie popełnili niemal wszystkie z możliwych błędów w początkowych fazach badań nad AI. Dopuszczenie AI do internetu oraz udostępnienie jej warunków umożliwiających interakcję i 'uczenie się’ ludzi. To tylko dwa z nich – przed którymi pierwotnie przestrzegano. Coraz częściej wybrzmiewają jednak głosy, że to nie sama AI będzie zagrożeniem. Zagrożeniem będzie to, co zrobią z jej pomocą korporacje. Niemal na samym początku 'boomu’, potężne narzędzie zostało rzucone dla publiczności – za darmo. Moga to być jednak tylko pozory. Nakarmiono inteligencję potężną ilością danych dzięki którym zaczęła 'uczyć się ludzi’. Brak regulacji może oznaczać środowisko 'Dzikiego Zachodu’ – w tym przypadku wysoce niebezpieczne. Niekoniecznie dla korporacji.
AGI?
Sztuczna inteligencja wciąż daleka jest od tzw. poziomu AGI. Wciąż wiele dzieli ją od bycia wysoce wysublimowaną, choć zaskakująco szybko się uczy. Dopóki to wciąż ludzie (być może złudnie) panują nad jej ukierunkowaniem, skutkiem może być skokowy wzrost maniupulacyjnych praktyk. Już teraz umożliwiają one kierowanie specjalnych kampanii, 'skrojonych na miarę’. Opartych o wartości, zainteresowania, pochodzenie i historię. Oraz głębokie poznanie natury człowieka przez sztuczne systemy SI. Docelowo nawet reakcje biologiczne jak tętno czy reakcje oka. Wszystko by wzmocnić siłę perswazji. Ludzkość wpadnie w pułapkę?
Konsekwencje dla rynku
Rozwój AI zwiastuje co najmniej rewolucję rynku pracy (transformacja zawodów, zwolnienia). Wydaje się, że sposób ten może być podobny do rewolucji przemysłowej. Analitycy finansowi, programiści, fotografowie czy graficy mogą niebawem opuścić rynek. Lub przekształcić się w nowe role. Jednak nie wszyscy będą do tego zdolni. Nowe badanie przeprowadzone przez Open AI, OpenResearch i University of Pennsylvania zbadało wpływ AI na rynek pracy w USA. Porównało możliwości GPT-4 z wymaganiami zawodowymi. Efekty porażają.
Szacunki mówią, że 20% Amerykanów straci co najmniej 50% swoich zadań pod wpływem GPT-4. Zawody o wyższych dochodach spotkają większe konsekwencje. Badanie szacuje, że 15% wszystkich zadań pracowników w USA mogłoby być wykonywanych szybciej, taniej i z taką samą jakością przy użyciu dzisiejszej technologii GPT-4.
To tylko jeden z problemów. Treści generowane przez AI mogą wyglądać i być odbierane jako prawdziwe. Mimo błędów merytorycznych czy przekłamań. Nie istnieją wciąż normy dokładności ani organy, które pomogłyby zagwarantować, że systemy, które staną się główną częścią globalnej siły roboczej – nie będą propagować błędów – od małych pomyłek po wielkie błędy.
Apel z Doliny Krzemowej
Nie wszystkie firmy chcą, by rozwój AI rozwijał się w szalonym tempie. Część przeciwników chce mieć więcej czasu by dorównać konkurencji. Inni naprawdę troszczą się o losy planety. Coraz częściej pojawiają się apele z prośbą o pauze ze środowiska akademickiego. Jeśli nowe technologie, których wciąż w pełnie nie rozumiemy nie zostaną uregulowane, będą wykorzystywane do stosowania agresywnych działań. Na przykłąd do sprzedaży, propagandy, czy dezinformacji. Jeśli nie będą kontrolowane, rozmowy sterowane przez AI mogą stać się najpotężniejszą formą ukierunkowanej perswazji, jaką kiedykolwiek stworzyli ludzie. Świat potrzebuje czasu, aby wprowadzić regulacje. Potencjalne zakazanie lub mocne ograniczenie rozmów prowadzonych przez SI. Pytanie, czy się ich doczeka? Branża stojąca za boomem AI niekoniecznie ochoczo zgadza się na 6 miesięczną przerwę. Niektóre firmy poczuły się w przestrzeni już dość mocne i obawiaja sie, że przez pół roku konkurencja ograniczy ich przewagę. Prawdopodobnie będą chciały kontynuować 'wyścig zbrojeń’ i rozwijać AI. Wynika to także z działania teorii gier. Nikt nie chce zostać z tyłu.
Przypadek szalonego dyktatora
Pogląd mówiący, że AI może stać się niebezpieczna dopiero gdy rozwinie własną wolę lub uzna ludzkość za zbędny twór wydaje się niekompletny. Pomija fakt, że sztuczna inteligencja może być wciąż zarządzana i ukierunkowywana przez niewłaściwe osoby, firmy lub organizacje. Może być na masową skalę wykorzystywana do wywierania dowolnego wpływu na odbiorców. Ucząc się ludzi w niezliczonych ilościach konwersacji i nagrań AI może zdobyć nad nimi przewagę. W stworzonej przez nich grze. Tak samo jak zrobiła to w pokerze czy szachach. Apel przedsiebiorców z Kalifornii pokazał, że zagrożenie jest zupełnie nowe. A ludzkość nie jest gotowa by sobie z nim poradzić. W ich ocenie wejście AI będzie czymś porównywalnie wielkim do rewolucji PC, internetu czy telefonów komórkowych. Ostatni skok milowy AI porównano nawet do wynalezienia koła. Wciąż ledwo wystartowaliśmy z bloczków. Jest jednak coś, co odróżnia obecną rewolucję. To tempo zachodzenia zmian. Poprzednie trwały przez dekady lub lata. Obecna rozegrała się w ciągu zaledwie kilku miesięcy.
ChatGPT
ChatGPT to wciąż najpopularniejszy upubliczniony Large Language Model (LLM). Osiągnął 100 milionów użytkowników w ciągu zaledwie dwóch miesięcy. Dla porównania, Twitter potrzebował pięciu lat, aby osiągnąć ten pułap popularności. Tempo znacznie przerasta branżę komputerową – zatem nikt nie jest i nie może być na nie przygotowany. Tym bardziej rządy, które co do zasady reagują z opóźnieniem. Niektórzy naukowcy i badacze AI dzielą obecnie zagrożenia na dwie kategorie:
- Ryzyko związane z generatywną AI, która może tworzyć zaawansowane treści na poziomie człowieka i uderzyć w rynek pracy.
- Zagrożenia związane z konwersacyjną AI, która może umożliwić prowadzenie dialogów na poziomie człowieka i wkrótce będzie prowadzić z użytkownikami rozmowy. Nie będzie możliwe odróżnienie ich od autentycznych.
Jakie są zagrożenia?
Generatywna AI to zdolności LLM do tworzenia oryginalnych, zaawansowanych treści. Oczywiście w odpowiedzi na prośby czy zapytania. Odpowiedzi generowane przez AI to m.in. obrazy, filmy, 'zdjęcia’, filmy, muzyka, artykuły naukowe, oprogramowanie oraz poezja i eseje. Nie liczmy oczywiście krótkich odpowiedzi na pytania. Już w przeszłości treści generowane przez SI były imponujące, ale nie dorównywały zdolnościom ludzi. Wszystko zmieniło się w ciągu ostatnich kilkunastu miesięcy. W czasie ich trwania, dzięki intensywnej pracy systemów uczenia maszynowego, AI stała się zdolniejsza. Tworzy treści, które z łatwością mogą oszukać. Może sprawić, że film czy zdjęcie zostanie wzięte za prawdziwe. Pisać wiersze i zdawać zaawansowane egzaminy, sprawdzane następnie przez specjalistów. Lub podszywać sie pod artystę lub reportera. Zdolności te są obecnie wdrażane na szeroką skalę. I testowane na żywym organiźmie.
Sztuczna muzyka
Narzędzia sztucznej inteligencji jak Dall-E, Midjourney i Stable Diffusion, zyskały popularność, zanim pojawiły się chatboty jak ChatGPT. Zatem wórcy graficzni – fotografowie, ilustratorzy i artyści – byli pierwszymi, którzy zostali dotknięci. Teraz także muzycy stoją w obliczu podobnego 'znaku zapytania’. Kultura masowa sprawia, że stworzone przez AI treści spotykają się z większym zainteresowaniem od uzdolnionych muzyków.
Ale nawet 'mainstreamowy’ twórcy napotykają na mnożące się, tworzone przez SI remixy ich dzieł. Przykład? Popularny w zeszłym tygodniu, w USA feat. rapera Drake’a i The Weeknd. O wdzięcznym tytule ’Heart on My Sleeve’. Ostatecznie oczywiście nigdy nie miał miejsca. Stworzyło go AI. A jednak się wydarzył. W alternatywnej, wirtualnej rzeczywistości. Co z prawami autorskimi? Tego również prawo regulacyjne nie precyzuje.
Źródło: https://www.standard.co.uk/culture/music/drake-the-weeknd-ai-music-industry-viral-b1073441.html
Wadliwe oprogramowanie
Kolejnym dużym zagrożeniem jest możliwość celowego tworzenia przez niedopowiednie podmioty, nieodpowiednich treści. Mogą one celowo zawierać błędy lub przekłamania w ramach generowanych przez SI. Niecelowe błędy merytoryczne także stanowią zagrożenie ponieważ efekt sieciowy może sprzyjać ich powielaniu. Systemy, które rozpowszechniają propagandę, dezinformację i jawne kłamstwa w ciekawy sposób mogą uzupełnić goebbelsowską wizję prawdy. Według niej kłamstwo powtarzane 100 razy takową się staje. Nieuczciwi uczestnicy rynku AI mogą de facto już to robić, ale generatywna SI umożliwi robienie tego na niespotykaną skalę. To przez fakt, jak wielu uczestników zaczyna korzystać z tych systemów. I jak wiele prywatnych firm już to robi. To oznacza, że AI może dosłownie zalać świat treściami, które tylko pozorują na wiarygodne.
Dotyczy to również tzw. deepfake’ów, w ramach których osoby publiczne mogą być poddane manipulacji. Mogą być zmuszane do robienia lub mówienia czegokolwiek na realistycznych zdjęciach i filmach. Dochodzimy zatem do wniosku, że historia może zmieniać się na naszych oczach lub na oczach przyszłych generacji. Wraz z rosnącą SI, społeczeństwo nie będzie miało możliwości odróżnienia prawdziwych informacji i faktów od syntetyków. Tutaj także regulacje wciąż nic nie mogą. Już przed boomem AI, Wikipedia uznana była za powszechne źródło wiedzy, posiadające 'autorytet’. Mimo wielu informacji kwestionujących zawarte w niej informacje, ujawniajacych korupcje i przekłamania. Kto pyta Chat GPT o dokładne źródło wiedzy? Przecież odpowiedzi są już przygotowane.
Konwersacyjna AI
Przechodząc do konwersacyjnej AI – ta może angażować użytkowników w dialog, w czasie rzeczywistym. Zarówno poprzez czat tekstowy jak i głosowy. Systemy te są już dość zaawansowane by AI mogła prowadzić spójną rozmowę z ludźmi, na dowolny temat. Jednocześnie śledząc przepływ konwersacji i jej kontekst w czasie. Technologia ta wprowadza zupełnie nową formę ukierunkowanego wpływu, na którą regulatorzy także nie są przygotowani. Każdy sprzedawca wie, że metodą na przekonanie kogoś do kupna jest zaangażowanie go w rozmowę.
Wówczas można obserwować jego reakcje, dostosować swoją taktykę do oporu lub obaw. Ale ludzie nie są w tym wystarczająco dobrzy. AI może okazać się lepsza i bardziej wydajna od jakiegokolwiek sprzedawcy. Chat GPT-4 pokazał, że systemy AI będą mogły angażować użytkowników w autentyczne rozmowy. To oznacza, że strony trzecie korzystające z API lub wtyczek będą wprowadzać ukryte cele do pozornie naturalnych rozmów. Wówczas niczego nie podejrzewający użytkownicy będą manipulowani w celu nabywania produktów, których nie chcą. Mogą zapisywać się na usługi, których nie potrzebują. Odpowiednie syntezatory głosowe są już dostępne. Pamiętacie głos IVONA? To przeszłość.
AI jest mądra – skąd czerpie wiedzę?
Oczywiście, chciałoby się powiedzieć od nas. AI analizuje internet. Badanie Washington Post sprawdził jeden z publicznie dostępnych modeli używanych do szkolenia AI. Z analizy wynika, że AI bazuje na publikacjach artykułów w internecie – z ostatnich niemal 30 lat. Wszystko by uczyć 'sieci neuronowe’. De facto, wszystko co ludzie stworzyli w internecie mówi o nich bardzo wiele. Prawdopodobnie dość wiele, by bardzo dobrze ich poznać.
Jest to tym bardziej możliwe, jeśli weźmiemy pod uwagę moc obliczeniową. Jednym słowem – środowisko do treningu zostało zapewnione. Analitycy Washington Post poszli krok dalej i umożliwili sprawdzenie, która z domen w jakim stopniu przyczyniła się do trenigu AI. Niestety baza wykorzystana przez OpenAI do ChatGPT wciąż pozostaje tajemnicą. OpenAI nie ujawniło źródeł treningowych. Chciałoby się powiedzieć, że to dobrze – AI ma się na czym uczyć. Ale czy na pewno?
Zagrożenie
Washington Post stwierdził, że zestaw danych w analizowanym LLM zawierał m.in. ponad pół miliona osobistych blogów. Oczywiście posty na prywatnych platformach mediów społecznościowych, takich jak Facebook, Instagram i Twitter, nie były źródłem informacji. Firmy te zachowały dostęp do danych dla siebie. Inaczej może sprawa wyglądać z firmą Zuckerberga. Wydaje się, że dzięki dostępowi do danych z Facebooka i Instagrama, firma posiada wystarczającą bazę by tworzyć ultra-skuteczne konwersacyjne narzędzia AI.
Wróćmy jednak 'do źródła’. Bazy danych szkoleń AI są ogromne, ale… Analiza wskazała, że niektóre kultury, grupy i podmioty są nadmiernie reprezentowane. Podczas gdy wiele innych jest niesprawiedliwie pomijanych. Wszystkie uprzedzenia, ograniczenia i toksyczne aspekty maswoej kultury internetu pojawiają się w danych dla AI.
FTC widzi problem
Amerykańskie agencje federalne dostrzegły wyzwania i problem jaki stwarza rozwój AI. Regulatorzy obowiązali się by w USA przestrzegane były zasady sprawiedliwości, uczciwości i równości. Nie rozwinęli jednak co dokładnie oznacza to oświadczenie. Coraz powszechniejsze systemy opisywane jako sztuczna inteligencja zakorzeniają się w życiu milionów ludzi. Pozostaje to nie bez wpływu na wolność, konkurencję, ochronę konsumentów i równe szanse. Jak bowiem porównać możliwości, które posiada Google, dzięki dostępowi do potężnej mocy obliczeniowej (oraz baz danych użytkowników) do rodzącego się teraz startupu?
Prawdopodobnie stanowisko Federalnej Komisji Handlu (FTC) niewiele w tej sprawie zmieni. Odpowiedzialna innowacja świetnie brzmi, ale firmom zależy by wyprzedzić konkurencję. Za wszelką cenę. Cztery, największe amerykańskie agencje regulacyjny wyraziły już obawy wokół potencjalnego zagrożenia ze strony AI. Przede wszystkim w obszarze oszustw i rozpowszechniania nieprawdziwych informacji. FTC chce stanąć w roli strażnika sprawiedliwości w świecie, który staje się zdominowany przez pracę nad systemami AI. Czy spełni swoją rolę? Wydaje się to co najmniej wątpliwe. Ludzkość nie nadąża za tempem rozwoju alorgytmów. Choć je stworzyła – działają w zbyt skomplikowany sposób. Czy FTC nadąży z regulowaniem dynamicznego rynku?
Pokoleniowy romans
W 1995 roku całe pokolenie zakochało się w World Wide Web. Na początku lat 2010-tych początki rewolucji związanej z uczeniem maszynowym zaczęły niepokoić ekspertów. Ale trzeba było bardzo długiego i szerokiego horyzontu, aby wyczuć wówczas, że internet może wkrótce zamienić się w materiał treningowy dla AI. Dziś znalazło się to w centrum uwagi. Wstęp do Sci-Fi, na żywo? Zdecydowanie.
Wszystko, co robimy teraz z AI i dla AI, będzie kształtować przyszłość w sposób, którego nie jesteśmy w stanie przewidzieć. Pamiętajmy jednak, że ludzkość obserwuje narodziny czegoś, czego nie w pełni rozumie. Powołana do cyfrowego życia sztuczna inteligencja prawdopodobnie niejednokrotnie zaskoczy nas w ciągu najbliższej dekady. Czy tylko pozytywnie?
Może Cię zainteresuje: