Сейчас уникальный момент для компаний, создающих собственные фундаментальные модели ИИ. На арене появилось новое поколение лабораторий: ветераны индустрии, ушедшие из крупных tech-компаний, и легендарные исследователи с неясными коммерческими амбициями. Некоторые могут вырасти до масштабов OpenAI, другие могут сосредоточиться на исследованиях без давления монетизации. Всё это создаёт путаницу: кто действительно нацелен на прибыль? Чтобы прояснить ситуацию, предлагается пятиуровневая шкала, измеряющая не успех, а амбиции.
Уровень 5: Мы уже зарабатываем миллионы долларов ежедневно.
Уровень 4: У нас есть детальный план стать богатейшими людьми на Земле.
Уровень 3: У нас много перспективных идей для продуктов, которые мы раскроем в своё время.
Уровень 2: У нас есть наброски концепции плана.
Уровень 1: Истинное богатство — это любовь к себе.
Крупные игроки (OpenAI, Anthropic) находятся на 5-м уровне. Интереснее ситуация с новыми лабораториями.
Humans&: Основатели представили убедительное видение новых AI-моделей, сместив фокус с законов масштабирования на инструменты коммуникации. Однако, несмотря на ажиотаж в прессе, лаборатория уклончива в вопросах монетизации. Заявлено о создании инструмента для рабочего пространства, который заменит Slack, Jira и Google Docs. Пока это соответствует Уровню 3.
Thinking Machines Lab (TML): Основана бывшим техническим директором ChatGPT при поддержке $2 млрд. Изначально выглядела как Уровень 4. Однако недавний уход CTO и нескольких ключевых сотрудников, вызванный сомнениями в стратегии компании, указывает на внутренние разногласия. Возможно, план оказался не таким надёжным, и лаборатория ближе к Уровню 2 или 3.
World Labs: Основана Фэй-Фэй Ли, одним из самых уважаемых исследователей ИИ. Изначально проект по созданию пространственного ИИ на $230 млн можно было отнести к Уровню 2. Однако за год лаборатория выпустила как полноценную модель для генерации миров, так и коммерческий продукт на её основе, удовлетворив спрос индустрий видеоигр и спецэффектов. Теперь это выглядит как компания Уровня 4, приближающаяся к 5-му.
Safe Superintelligence (SSI): Основана бывшим главным учёным OpenAI Ильёй Суцкевером. Лаборатория сознательно изолирована от коммерческого давления, у неё нет продуктовых циклов, а фокус — на исследованиях. Это классический Уровень 1. Однако Суцкевер не исключает коммерческого поворота, если исследования зайдут в тупик или, наоборот, приведут к прорыву. В таком случае SSI может быстро подняться по шкале.
Итог: В мире ИИ, переполненном инвестициями, лаборатории могут выбирать свой уровень амбиций. Ключевая проблема индустрии — непонимание, на каком уровне находится та или иная компания, что часто становится источником конфликтов и драмы.