Bruksela bierze się za AI – giganci muszą ujawnić swoje tajemnice!

W Brukseli doszło do kluczowych spotkań, które mogą zdefiniować przyszłość sztucznej inteligencji (AI) na Starym Kontynencie.

Komisja Europejska oficjalnie potwierdziła, że prowadzi zaawansowane rozmowy z amerykańskimi gigantami technologicznymi takimi jak OpenAI oraz Anthropic. Głównym tematem negocjacji jest kwestia dostępu do najnowszych modeli sztucznej inteligencji, co ma kluczowe znaczenie w kontekście wdrażania europejskich regulacji znanych jako AI Act. Rzecznik Komisji Europejskiej Thomas Regnier poinformował podczas codziennego briefingu prasowego, że Bruksela z zadowoleniem przyjmuje proaktywną postawę twórców ChatGPT. OpenAI z własnej inicjatywy zaoferowało unijnym urzędnikom wgląd w swój najnowszy model, co jest postrzegane jako gest dobrej woli i chęć współpracy przy tworzeniu bezpiecznych ram technologicznych. Sytuacja wygląda nieco inaczej w przypadku firmy Anthropic, z którą przedstawiciele Komisji spotkali się już czterokrotnie lub pięciokrotnie. Choć wymiana informacji z tą spółką jest oceniana jako dobra, rozmowy nie dotyczyły jeszcze bezpośredniego udostępnienia modeli do testów.

Bruksela chce kontrolować gigantów AI

Unijni regulatorzy starają się wypracować model współpracy, który pozwoli na realną ocenę ryzyka związanego z potężnymi algorytmami. Regnier podkreślił, że w przypadku OpenAI mamy do czynienia z firmą, która sama wychodzi przed szereg. W odniesieniu do Anthropic urzędnicy nie chcą na razie spekulować, czy i kiedy dojdzie do podobnego porozumienia w kwestii dostępu do technologii. Cały proces odbywa się w cieniu wchodzącego w życie aktu o sztucznej inteligencji, którego przepisy dotyczące modeli ogólnego przeznaczenia mają stać się w pełni wiążące już wkrótce.

Eksperci zauważają, że Bruksela kładzie ogromny nacisk na przejrzystość i odpowiedzialność za generowane treści. Komisja Europejska najwwyraźniej nie chce powtórzyć błędów z czasów ekspansji mediów społecznościowych i tym razem zamierza trzymać rękę na pulsie już na etapie trenowania modeli. Jednak zdaniem niektórych specjalistów ds. regulacji cyfrowych dobrowolne oferowanie dostępu przez OpenAI to sprytny ruch, który ma złagodzić zapędy regulacyjne urzędników i pokazać, że samoregulacja w branży AI jest możliwa.

Kary za naruszenia i nowe terminy

Wprowadzane regulacje przewidują surowe sankcje finansowe dla firm, które nie dostosują się do nowych wymogów bezpieczeństwa i przejrzystości. Grzywny mogą sięgać nawet 15 mln euro lub 3% globalnego rocznego obrotu przedsiębiorstwa, co w przypadku Big Techów oznaczałoby kwoty idące w miliardy USD. Na przykład, gdyby przyjąć hipotetyczne przychody na poziomie 50 mld USD, kara mogłaby wynieść aż 1,5 mld USD. Mimo rygorystycznych zapowiedzi, Unia Europejska zdecydowała się na pewne ustępstwa wobec biznesu, przesuwając termin wdrożenia części przepisów dotyczących systemów wysokiego ryzyka na grudzień 2027 roku. Ma to zapobiec ucieczce innowacji poza granice wspólnoty i dać firmom czas na dostosowanie się do skomplikowanej machiny administracyjnej. Branża AI odetchnęła z ulgą, ponieważ pierwotne terminy były uznawane za nierealne do spełnienia bez drastycznego ograniczania rozwoju europejskich projektów technologicznych.

Walka z dezinformacją i ochrona praw autorskich

Jednym z priorytetów Komisji pozostaje walka z nieautoryzowanymi treściami oraz ochrona praw autorskich, które są naruszane w procesie tzw. memoryzacji przez algorytmy. Modele szkolone na ogromnych zbiorach danych często powielają utwory bez zgody ich twórców, co budzi sprzeciw środowisk artystycznych i wydawców. Bruksela chce, aby każda treść wygenerowana przez sztuczną inteligencję była jasno oznaczona, na przykład za pomocą cyfrowych znaków wodnych. Ma to ograniczyć skalę dezinformacji i powstawanie szkodliwych materiałów typu deepfake. Jak komentuje ekspert od etyki AI (@EthicsInAI): „Przejrzystość to jedyna droga, by budować zaufanie społeczne do technologii, która w 90% przypadków działa poprawnie, ale w pozostałych 10% potrafi generować halucynacje i niebezpieczne manipulacje”. Warto dodać, że od grudnia zakazane będzie tworzenie i rozpowszechnianie materiałów seksualnych generowanych przez AI bez zgody osób na nich przedstawionych, co jest bezpośrednią odpowiedzią na kontrowersje wokół narzędzi takich jak Grok czy inne generatory obrazów.

Przeczytaj o nie do końca jasnym zachowaniu entuzjastów kryptowalut, z jakim obecnie mamy do czynienia:
Koniec marzeń o tanim życiu? Bitcoin bije rekordy, ale konsumenci nigdy nie byli w gorszych nastrojach
oraz o tym, jak popularna kryptowaluta firmy Ripple odnotowała gwałtowny wzrost
Koniec czekania! XRP przebija kluczowy opór przy ogromnym wolumenie – sprawdź, co planują teraz wieloryby