Odszedł z OpenAI, założył własną firmę. Miał dość „błyszczących produktów”

Ilya Sutskever, znany badacz sztucznej inteligencji i były główny naukowiec OpenAI, założył nową firmę badawczą, której głównym celem jest bezpieczeństwo AI. Safe Superintelligence Inc. (SSI), bo tak będzie się nazywać, powstała we współpracy z Danielem Grossem, byłym liderem AI w Apple, oraz Danielem Levy’m, który wcześniej również pracował w OpenAI. Ekipa jest więc całkiem mocna. Dlaczego zostawili dotychczasowych pracodawców i co chcą osiągnąć samodzielnie?

Jedyny cel: bezpieczna AI

SSI ma skoncentrować się na rozwijaniu sztucznej inteligencji w sposób bezpieczny i zgodny z interesami ludzkości. „Będziemy dążyć do bezpiecznej superinteligencji” – napisała firma na Twitterze. Zamierzają osiągnąć to dzięki przełomowym innowacjom tworzonym przez mały, ale wysoce wykwalifikowany zespół.

Sutskever opuścił OpenAI w ubiegłym roku z powodu napięć wewnętrznych. W tym obaw związanych z tym, że bezpieczeństwo staje się mniej ważne niż zyski. W SSI chce uniknąć zarządzania i cykli produktowych, które często rozpraszają większe firmy AI. „Nasz model biznesowy oznacza, że bezpieczeństwo, ochrona i postęp są chronione przed krótkoterminowymi naciskami komercyjnymi” – czytamy w oficjalnym oświadczeniu na stronie SSI. „Dzięki temu możemy rozwijać się w spokoju.”

SSI ma być organizacją skoncentrowaną wyłącznie na badaniach, w przeciwieństwie do obecnego modelu biznesowego OpenAI, który obejmuje komercjalizację modeli AI. Pierwszym i jedynym produktem SSI będzie bezpieczna superinteligencja. „Bezpieczna w sensie bezpieczeństwa nuklearnego, a nie ‘zaufania i bezpieczeństwa'” – wyjaśnił Sutskever w rozmowie z Bloomberg.

Misją firmy jest rozwijanie „superalignmentu” z interesami ludzkości. Chcą skupiać się wyłącznie na rozwoju, a nie na tworzeniu „błyszczących produktów”, które według niego były rozpraszające w OpenAI.

„Na najbardziej podstawowym poziomie, bezpieczna superinteligencja powinna mieć właściwość takie, żeby nie zaszkodzi ludzkości na dużą skalę” – powiedział Bloombergowi.

Reakcje na odejścia z OpenAI

Decyzja o założeniu SSI nastąpiła po tym, jak OpenAI rozwiązało zespół odpowiedzialny za długoterminowe bezpieczeństwo AI, po odejściu kluczowych członków. Sutskever był częścią zarządu firmy, który początkowo zwolnił CEO Sama Altmana z powodu obaw o bezpieczeństwo. Altman został przywrócony kilka dni później, już z nowym zarządem spółki.

SSI będzie miało swoje siedziby w Stanach Zjednoczonych i Izraelu i już teraz prowadzi rekrutację. „Oferujemy możliwość zrealizowania życiowej pracy i pomocy w rozwiązaniu najważniejszego wyzwania technicznego naszych czasów” – piszą w ogłoszeniu.

Dziękujemy, że przeczytałeś/aś nasz artykuł do końca. Obserwuj nas w Wiadomościach Google i bądź na bieżąco!
Zostaw komentarz

Twój adres e-mail nie będzie opublikowany.