Wszystkie modele OpenAI i Anthropic będą musiały mieć akceptację urzędników. Zawarto „porozumienie” ws. AI

Amerykańska administracja federalna z zadowoleniem ogłosiła zawarcie „porozumienia” z firmami Anthropic oraz OpenAI. „Porozumienie” owo ma dotyczyć współpracy w dziedzinie bezpieczeństwa technologii. Tę zapewnić ma nowy rządowy Instytut ds. AI – o nieco orwellowskich kompetencjach.

Wbrew nazwie, która może sugerować obopólną korzyść, stosunek relacji w ramach owego „porozumienia” będzie zdecydowanie jednostronny. Anthropic i OpenAI efektywnie zobowiązały się bowiem do każdorazowego występowania o rządową akceptację dla swoich produktów.

Rzeczoną współpracą ze strony rządu zajmować się będzie Amerykański Instytut Bezpieczeństwa AI (US AI Safety Institute), niedawno utworzona komórka tematyczna. Jest ona formalnie częścią Narodowego Instytutu Standardów i Technologii (National Institute of Standards and Technology, NIST).

Ten ostatni wchodzi z kolei w skład Departamentu Handlu – i jemu podlega. Innymi słowy, Departament Handlu będzie mógł ręcznie sterować produktami AI. Na mocy owego porozumienia, otrzyma on wczesny dostęp do każdego nowego modelu i bota tych firm. I będzie je akceptować – lub nie akceptować.

Współpraca ma dotyczyć nie tylko ewaluacji potencjalnych zdolności oraz zagrożeń. Urzędnicy mają także pracować nad „metodami zażegnywania potencjalnych problemów”. Innymi słowy, instytucja rządowa będzie bezpośrednio decydowała o sposobie działania mechanizmów wiodących firm AI na rynku.

Nie jest to bynajmniej nowość w przypadku wspomnianych firm. Dotąd jednak nawet bardzo wścibskie rządy oraz bardzo spolegliwe firmy załatwiały to nieco mniej rażąco i inwazyjnie. Dobrze wziąć to pod uwagę, korzystając z usług botów takich jak ChatGPT.

Dziękujemy, że przeczytałeś/aś nasz artykuł do końca. Obserwuj nas w Wiadomościach Google i bądź na bieżąco!
Zostaw komentarz

Twój adres e-mail nie będzie opublikowany.