REKLAMA

Ilya Sutskever, były główny naukowiec OpenAI, zakłada nową firmę

Powstanie Safe Superintelligence Inc. to nowy rozdział w dążeniu do bezpiecznej przyszłości AI. Sutskever i jego zespół są zdeterminowani, aby łączyć szybki rozwój technologii z priorytetem bezpieczeństwa.

REKLAMA

Ilya Sutskever, współzałożyciel i były główny naukowiec OpenAI, ogłosił powstanie nowej firmy – Safe Superintelligence Inc. (SSI). Zaledwie miesiąc po odejściu z OpenAI, Sutskever, wraz z Danielem Grossem i Danielem Levy, postanowił skupić się na problemach związanych z bezpieczeństwem sztucznej inteligencji.

Nowa misja

Safe Superintelligence Inc. ma na celu połączenie bezpieczeństwa i zdolności AI w jednym, spójnym podejściu. W opublikowanym tweecie Sutskever podkreślił, że „SSI jest naszą misją, nazwą i całym planem produktowym, ponieważ jest to nasz jedyny cel.” Firma zamierza rozwijać zdolności AI w szybkim tempie, jednocześnie dbając o to, aby bezpieczeństwo zawsze było priorytetem.

Przeszłość i przyszłość


Sutskever od dawna zajmuje się trudnymi aspektami bezpieczeństwa AI. W blogu opublikowanym w 2023 roku, wspólnie z Janem Leike, przewidywał nadejście superinteligentnych systemów AI w ciągu dekady. Obecnie, poprzez SSI, kontynuuje swoje zaangażowanie w tę dziedzinę. Jak mówi: „Planem jest postęp technologiczny w tempie, który zapewnia bezpieczeństwo i skalowanie w spokoju.”

Struktura i finanse

W odróżnieniu od OpenAI, SSI od początku zaprojektowane jest jako firma nastawiona na zysk. Według Daniela Grossa, jednego z założycieli, zdobycie kapitału nie będzie problemem. Firma ma już biura w Palo Alto i Tel Awiwie i aktywnie rekrutuje talenty techniczne.

Źródło: TechCrunch

REKLAMA
REKLAMA

Rozrywka

Wejdź do świata filmów i seriali na: Movies Room logo