Для реально топовых специалистов ценности важнее денег. Спор Пентагона и Anthropic показал, что с этим приходится считаться всем
Claude потерял оборонный контракт, но не только впервые обошел ChatGPT по загрузкам в App Store, а еще и выиграл кадровую конкуренцию.

Контракты с Пентагоном стали новой точкой напряжения в индустрии искусственного интеллекта. Разное отношение двух ведущих лабораторий — OpenAI и Anthropic — к сотрудничеству с Министерством обороны США привело к конфликту, который повлиял и на борьбу за кадры в области AI.
OpenAI согласилась на развертывание своих моделей в засекреченных системах Пентагона, что вызвало волну недовольства внутри самой компании.
Как пишет WSJ, после этой сделки из OpenAI уволились как минимум два топ-менеджера: вице-президент по исследованиям Макс Шварцер и руководитель аппаратного направления Кейтлин Калиновски. Последняя открыто заявила, что вопросы слежки за гражданами и использования автономного оружия требуют гораздо более глубокого обсуждения, чем то, которое было проведено перед подписанием контракта.
В это же время Anthropic заняла непоколебимую позицию. Компания пыталась включить в соглашение с Пентагоном строгие защитные механизмы, которые бы запрещали использование ее технологий для внутреннего шпионажа и создания летального оружия. Когда переговоры зашли в тупик, администрация Трампа объявила Anthropic «риском для цепочки поставок».
Хотя это и стоило компании потери крупного государственного клиента, взамен она получила значительную репутационную выгоду. Подтверждением этому стало не только то, что чат-бот Claude впервые обошел ChatGPT по скачиваниям в App Store, но и беспрецедентная поддержка со стороны общества и коллег по цеху. Так, 37 сотрудников OpenAI и Google DeepMind даже подали апелляцию в суд в поддержку Anthropic, которая сейчас оспаривает решение правительства.
Финансовый аспект этой борьбы выглядит не менее впечатляющим. Как сообщает WSJ, прошлым летом корпорация Meta пыталась переманить лучших инженеров из OpenAI и Anthropic, предлагая компенсационные пакеты, стоимость которых превышала сотни миллионов долларов.
В ответ на этот вызов OpenAI начала выплачивать бонусы и изменила систему начисления акций, чтобы удержать людей. Однако Anthropic выбрала другой путь: глава компании Дарио Амодеи заявил сотрудникам, что структура выплат останется неизменной, так как главное — это преданность миссии. Результат оказался показательным: если из OpenAI в Meta ушли несколько десятков человек, то Anthropic потеряла только двоих.
По мнению автора, такая жизнеспособность Anthropic объясняется историей ее создания. Компания была основана в 2021 году выходцами из OpenAI, которые считали, что компания слишком спешит с коммерческими продуктами, недостаточно внимания уделяя безопасности. Сегодня Anthropic гордится тем, что в ее составе остались почти все соучредители и большинство из первых 20 сотрудников.
Этот успех в области удержания кадров заставил OpenAI перейти в режим минимизации репутационного ущерба. Сэм Альтман публично признал, что поспешная сделка с Пентагоном выглядела «небрежно», и пытался успокоить команду на сессиях вопросов и ответов, но, как видно по уходу ключевых исследователей, эти меры не всегда срабатывают.
В то же время, как пишет WSJ, Anthropic также сталкивается с внутренними вызовами. Недавно компанию покинул исследователь безопасности Мринанк Шарма. В письме коллегам он написал, что хочет заняться поэзией и выразил обеспокоенность тем, что развитие искусственного интеллекта может стать угрозой для мира. Как сообщала WSJ, его увольнение частично было связано с изменениями в политике безопасности компании.
Таким образом, история с контрактами Пентагона показала, что в индустрии искусственного интеллекта важную роль играют не только деньги и технологии. Для многих ведущих исследователей не менее важно, как и для каких целей будут использоваться создаваемые ими системы. Теми же принципами руководствуюцца топовые профессионалы в других сферах бизнеса, науке и СМИ.
К 2027 году искусственный интеллект может достичь уровня «страны гениев». Что имеется в виду?
Как бот с искусственным интеллектом OpenClaw сначала захватил мир, а затем попал под запреты и был назван «кошмаром кибербезопасности»
Потенциальный кошмар эпохи искусственного интеллекта — биологическое оружие. Весь мир думает, как подготовиться к его использованию
Комментарии
Злодзей у злодзея скраў, а сам крычыць караўл... Смех.
Якая рэпутацыя?
Зараз, нарэшце, людзі якія працуюць - ад Амазона да Пентагона - сталі адчуваць рэальныя наступствы працы ЛЛМ мадэлей (яны не могуць падтрымліваць доўгатэрміновыя працэсы і мадэлі, бо такая іх архітэрктура), і далей будзе весела.
Уся бізнес мадэль дакладна нагадвае мадэль крыпты і блокчэйна, то бок піраміду. Пакуль есць "лохі" гатовыя інвеставаць і "лохі" гатовыя купляць падпіску на гэтае лайно - машына будзе неяк ехаць далей.
А з цікавага, усе гэтыя новыя дата цэнтры можна вельмі добра выкарыстаць да Mass Surveilance, па Кітайскаму прыкладу. Не будзе ж нерухомасць і серверы проста так стаяць ;) Проста на падумаць ;) Абывацелю цяжка прадаць тое, што мы будуем інфраструктуру да лічбавага гулага, але калі сказаць што гэта для ШІ... ;)
Так что выбор был между большИми деньгами и еще бОльшими деньгами.
Выбор тут очевиден,ибо всех денег не заработаешь,а самоуважение к себе не купишь.