Czy AI stanie się bronią? Google po cichu zmienia zasady etyczne

Czy AI stanie się bronią? Google po cichu zmienia zasady etyczne

Google usunęło zapis ze swoich zasad dotyczących sztucznej inteligencji, który zobowiązywał firmę do niewykorzystywania tej technologii jako broni. Zmiana wywołała wiele spekulacji i obaw, szczególnie w kontekście rosnącego zainteresowania AI ze strony wojska. Była szefowa działu etyki AI w Google, Margaret Mitchell, ostrzegła, że może to oznaczać prace nad technologią zdolną do zabijania. Tymczasem firma argumentuje, że demokratyczne kraje powinny przewodzić w rozwoju AI, dbając o bezpieczeństwo i wzrost gospodarczy.

Google rezygnuje z zasady „nie dla broni” w AI

Jeszcze niedawno Google zobowiązywało się, że nie wykorzysta sztucznej inteligencji do wyrządzania szkód, w tym do tworzenia broni. Teraz jednak ten zapis zniknął z oficjalnych zasad etycznych firmy. Zmiana ta została zauważona przez dziennikarzy Bloomberga. To istotne odstępstwo od wcześniejszych deklaracji.

W odpowiedzi na prośby o komentarz Google nie odniosło się bezpośrednio do tej decyzji. Zamiast tego, firma wskazała na wpis na blogu, w którym podkreśla, że demokratyczne kraje powinny odgrywać kluczową rolę w kształtowaniu etyki AI. Współpraca między rządami, firmami i organizacjami ma według Google na celu ochronę ludzi, wsparcie globalnego wzrostu gospodarczego oraz bezpieczeństwa narodowego.

Margaret Mitchell, była szefowa etyki AI w Google, zwróciła uwagę, że usunięcie frazy o niewyrządzaniu szkód może sugerować rozwój technologii zdolnej do zabijania. Jej obawy podzielają eksperci zajmujący się etycznymi aspektami AI, którzy obawiają się rosnącej militaryzacji tej technologii.

Wzrost inwestycji w AI i udział firm w projektach militarnych

Zmiana polityki Google wpisuje się w szerszy trend obserwowany wśród gigantów technologicznych. Meta otworzyła swoje systemy AI dla agencji rządowych USA i firm z sektora obronnego. Podobny krok wykonała firma Anthropic. Natomiast OpenAI w styczniu 2025 roku zawarło umowę z amerykańskimi laboratoriami narodowymi, dotyczącą wykorzystania AI w badaniach nad bronią jądrową.

W sierpniu 2024 roku 200 pracowników DeepMind, działu AI należącego do Google, zaprotestowało przeciwko udziałowi firmy w projektach militarnych. Domagali się zerwania kontraktów z wojskiem. Mimo to, Google kontynuuje rozwój AI i zapowiada ogromne inwestycje.

Dyrektor generalny Google, Sundar Pichai, ogłosił plan przeznaczenia 75 miliardów dolarów na rozwój sztucznej inteligencji. Środki te mają przyspieszyć innowacje i wzmocnić działalność firmy. Nie wiadomo jednak, jaka część tej kwoty zostanie przeznaczona na projekty związane z bezpieczeństwem narodowym.

Komentarze (0)
Dodaj komentarz