Wewnątrz nalotu OpenAI na laboratorium myślących maszyn
Jeśli ktoś kiedykolwiek nakręci dla HBO Max serial o branży sztucznej inteligencji, wydarzenia tego tygodnia będą niezłym odcinkiem. W środę dyrektor generalny OpenAI ds. aplikacji, Fidji Simo, ogłosił, że firma ponownie zatrudniła Barreta Zopha i Luke’a Metza, współzałożycieli startupu AI Miry Murati – Thinking Machines Lab. Zoph i Metz opuścili OpenAI pod koniec 2024 r. Wczoraj wieczorem informowaliśmy o dwóch narracjach, które ukształtowały się wokół przyczyn odejścia, i od tego czasu zdobyliśmy nowe informacje. Źródło posiadające bezpośrednią wiedzę twierdzi, że kierownictwo Thinking Machines uważało, że Zoph był zamieszany w incydent związany z poważnym niewłaściwym postępowaniem w firmie w zeszłym roku. Źródło twierdzi, że incydent ten złamał zaufanie Muratiego i zakłócił stosunki robocze pary. Źródło twierdziło również, że Murati zwolnił Zopha w środę – zanim dowiedział się, że przechodzi do OpenAI – z powodu – zdaniem firmy – problemów, które pojawiły się po rzekomym niewłaściwym postępowaniu. Mniej więcej w czasie, gdy firma dowiedziała się, że Zoph wraca do OpenAI, Thinking Machines wyraziło wewnętrznie obawy dotyczące tego, czy udostępniał on poufne informacje konkurencji. (Zoph nie odpowiedział na kilka próśb o komentarz ze strony WIRED). Tymczasem w środowej notatce dla pracowników Simo stwierdził, że prace trwają od tygodni i że Zoph powiedział Murati, że rozważa opuszczenie Thinking Machines w poniedziałek – przed datą zwolnienia. Simo powiedział także pracownikom, że OpenAI nie podziela obaw Thinking Machines dotyczących etyki Zopha. Zgodnie z zapowiedzią Simo, obok Zopha i Metza, inny były badacz OpenAI, który pracował w Thinking Machines, Sam Schoenholz, ponownie dołącza do twórcy ChatGPT. Według źródła zaznajomionego ze sprawą co najmniej dwóch kolejnych pracowników Thinking Machines dołączy do OpenAI w nadchodzących tygodniach. Reporter technologiczny Alex Heath jako pierwszy poinformował o dodatkowych pracownikach. Odrębne źródło zaznajomione z tą sprawą podtrzymało pogląd, że ostatnie zmiany personalne były w całości powiązane z Zophem. „Było to część długiej dyskusji w Thinking Machines. Dyskusje i rozbieżności co do tego, co firma chciała zbudować – dotyczyły produktu, technologii i przyszłości”. Thinking Machines Lab i OpenAI odmówiły komentarza. W następstwie tych wydarzeń otrzymaliśmy odpowiedzi od kilku badaczy z wiodących laboratoriów sztucznej inteligencji, którzy twierdzili, że są wyczerpani ciągłym dramatem w swojej branży. Ten konkretny incydent przypomina krótkie usunięcie Sama Altmana z OpenAI w 2023 r., znane w OpenAI jako „przeskok”. Według doniesień The Wall Street Journal Murati odegrał kluczową rolę w tym wydarzeniu jako ówczesny dyrektor ds. technologii firmy. Od obalenia Altmana dramat w branży sztucznej inteligencji trwa nadal, wraz z odejściem współzałożycieli z kilku głównych laboratoriów zajmujących się sztuczną inteligencją, w tym Igora Babuschkina z xAI, Daniela Grossa z Safe Superintelligence i Yanna LeCuna z Meta (w końcu był współzałożycielem wieloletniego laboratorium sztucznej inteligencji Facebooka, FAIR). Some można argumentować, że dramat jest uzasadniony w przypadku rodzącego się przemysłu, którego wydatki przyczyniają się do wzrostu PKB Ameryki. Ponadto, jeśli uwierzysz, że jeden z tych badaczy może dokonać kilku przełomowych odkryć na drodze do AGI, prawdopodobnie warto prześledzić, dokąd zmierzają. To powiedziawszy, wielu badaczy rozpoczęło pracę przed przełomowym sukcesem ChatGPT i wydaje się zaskoczonych, że ich branża jest obecnie źródłem niemal ciągłej kontroli. Tak długo, jak badacze będą mogli dla kaprysu zbierać miliardowe rundy zalążkowe, przypuszczamy, że wstrząsy w branży sztucznej inteligencji będą nadal zachodzić. Autorzy HBO Max, zgłoście się. Jak laboratoria sztucznej inteligencji szkolą agentów, jak wykonują swoją pracę? Mieszkańcy Doliny Krzemowej od dziesięcioleci zastanawiają się nad wypieraniem przez sztuczną inteligencję miejsc pracy. Jednak w ciągu ostatnich kilku miesięcy wysiłki mające na celu faktyczne zmusić sztuczną inteligencję do wykonywania ekonomicznie wartościowej pracy stały się znacznie bardziej wyrafinowane. Laboratoria sztucznej inteligencji mają coraz większą wiedzę w zakresie danych, których używają do tworzenia agentów sztucznej inteligencji. W zeszłym tygodniu WIRED poinformował, że OpenAI prosi zewnętrznych wykonawców z firmy Handshake o przesłanie przykładów ich prawdziwej pracy z poprzednich stanowisk w celu oceny agentów OpenAI. Firmy proszą pracowników o usunięcie z tych dokumentów wszelkich poufnych danych i danych osobowych. Chociaż możliwe jest, że przemkną jakieś tajemnice korporacyjne lub nazwy, prawdopodobnie nie o to chodzi OpenAI (chociaż firma może wpaść w poważne kłopoty, jeśli tak się stanie, mówią eksperci).
已Opublikowany: 2026-01-15 21:14:00
źródło: www.wired.com








