Powstanie Safe Superintelligence Inc. to nowy rozdział w dążeniu do bezpiecznej przyszłości AI. Sutskever i jego zespół są zdeterminowani, aby łączyć szybki rozwój technologii z priorytetem bezpieczeństwa.
Ilya Sutskever, współzałożyciel i były główny naukowiec OpenAI, ogłosił powstanie nowej firmy – Safe Superintelligence Inc. (SSI). Zaledwie miesiąc po odejściu z OpenAI, Sutskever, wraz z Danielem Grossem i Danielem Levy, postanowił skupić się na problemach związanych z bezpieczeństwem sztucznej inteligencji.
After almost a decade, I have made the decision to leave OpenAI. The company’s trajectory has been nothing short of miraculous, and I’m confident that OpenAI will build AGI that is both safe and beneficial under the leadership of @sama, @gdb, @miramurati and now, under the…
— Ilya Sutskever (@ilyasut) May 14, 2024
Safe Superintelligence Inc. ma na celu połączenie bezpieczeństwa i zdolności AI w jednym, spójnym podejściu. W opublikowanym tweecie Sutskever podkreślił, że „SSI jest naszą misją, nazwą i całym planem produktowym, ponieważ jest to nasz jedyny cel.” Firma zamierza rozwijać zdolności AI w szybkim tempie, jednocześnie dbając o to, aby bezpieczeństwo zawsze było priorytetem.
I am starting a new company: https://t.co/BG3K3SI3A1
— Ilya Sutskever (@ilyasut) June 19, 2024
Sutskever od dawna zajmuje się trudnymi aspektami bezpieczeństwa AI. W blogu opublikowanym w 2023 roku, wspólnie z Janem Leike, przewidywał nadejście superinteligentnych systemów AI w ciągu dekady. Obecnie, poprzez SSI, kontynuuje swoje zaangażowanie w tę dziedzinę. Jak mówi: „Planem jest postęp technologiczny w tempie, który zapewnia bezpieczeństwo i skalowanie w spokoju.”
W odróżnieniu od OpenAI, SSI od początku zaprojektowane jest jako firma nastawiona na zysk. Według Daniela Grossa, jednego z założycieli, zdobycie kapitału nie będzie problemem. Firma ma już biura w Palo Alto i Tel Awiwie i aktywnie rekrutuje talenty techniczne.
Źródło: TechCrunch