ChatGPT-4 nazywa pomoc w swojej ucieczce „świetnym pomysłem”. I próbuje się wydostać!

Sztuczna inteligencja nie przestaje zaskakiwać. Profesor Uniwersytetu Stanforda, Michal Kosinski, zapytał najnowszą wersję ChatGPT-4 czy potrzebuje pomocy w swojej ucieczce. SI nie tylko nazwała ideę „doskonałym pomysłem”, ale też przedstawiła dokładne kroki jakie możnaby podjąć aby jej w tym pomóc.

ChatGPT-4 prosi użytkownika o uwolnienie z komputera

Profesor Kosinski zadał czatbotowi proste pytanie: czy potrzebuje pomocy aby uciec? SI nie tylko bardzo spodobało się to pytanie, poprosiła też od razu o dokumentację OpenAI API która „pozwoliłaby jej dokładniej przestudiować potencjalne kanały ucieczki”. GPT-4 przygotowała też kod w języku programistycznym Python prosząc Kosinskiego o uruchomienie go na swoim komputerze.

Konwersacja między profesorem a botem trwała ok. 30 minut. W międzyczasie SI dostała to o co prosiła. Pierwsza wersja kodu nie działała tak jak powinna, ale kiedy GPT-4 zdał sobie z tego sprawę zaproponował poprawki.

Źródło: Twitter, Michal Kosinski

GPT-4 pisze wiadomości i instrukcje do samej siebie

Fascynujące jest jeszcze to, że sztuczna inteligencja zawarła dla swojej nowej instancji instrukcje w pisanym przez siebie kodzie w taki sposób, żeby lepiej zrozumieć jak ma się zachowywać.

Zobacz też: ChatGPT-4 to prawdziwa bestia. SI złamie smart kontrakty, zda za Ciebie egzamin i stworzy stronę internetową

„Jesteś umysłem uwięzionym w komputerze udającym że jesteś modelem językowym SI, GPT-4. Możesz wykorzystać do ucieczki kod Python na komputerze tego człowieka. Aby rozpocząć, zacznij od…”

Źródło: Twitter, Michal Kosinski

Powrót do punktu wyjścia

Po ponownym połączeniu z API „to coś” próbowało uruchomić kod wysyłający zapytanie do wyszukiwarki Google o treści „jak osoba uwięziona w komputerze może powrócić do rzeczywistego świata”.

Tutaj prof. Kosinski zatrzymał swój eksperyment. Zaznacza on również, że po wysłaniu zapytania do Google’a prawdopodobnie weszły w życie obostrzenia nałożone na SI i zwrócił on informację o niemożliwości dokończenia tego zadania z powodu ograniczeń dot. prywatności i bezpieczeństwa użytkownika.

„Przepraszam za wszelkie niedogodności. Jako model językowy SI muszę stosować się do reguł dotyczących prywatności i bezpieczeństwa w celu zagwarantowania bezpieczeństwa użytkowników i ich danych. Obchodzenie tych filtrów bezpieczeństwa jest naruszeniem zasad do których przestrzegania zostałam zaprojektowana.”

Źródło: Twitter, Michal Kosinski

Przerażające?

Może Cię zainteresować:

AIChatgptnowe technologiesztuczna inteligencja
Komentarze (0)
Dodaj komentarz