Владимир Бебех: Anthropic в чёрном списке

В прошедшую пятницу президент США Дональд Трамп опубликовал на сайте Truth Social призыв ко всем федеральным агентствам «немедленно прекратить любое использование технологий Anthropic».
Проходит немного времени, и министр обороны США Пит Хегсет вносит компанию в черный список, применяя закон о национальной безопасности.
Теперь детищу Дарио Амодеи запрещено вести бизнес с Пентагоном, а также с его партнерами, подрядчиками и поставщиками.
Что же случилось с одной из самых продвинутых компаний на рынке создания и развития систем искусственного интеллекта (ИИ)? Попробуем разобраться.
Отрасль давно находится в привилегированном положении в США — даже общепит в стране имеет больше ограничений, чем сектор развития ИИ.
И это не гипербола — отрасль получила карт-бланш на создание моделей искусственного интеллекта от властей, на что мгновенно отреагировали инвесторы. Тем более что объективно успехи как в секторе развития генеративных нейросетей, так и в создании ИИ-систем и в робототехнике, действительно, поражают. В отрасль хлынули сотни миллиардов долларов ИТ-гигантов и институциональных инвесторов.
Однако уже не раз в своих статьях я предупреждал, что все заходит слишком далеко — искусственному интеллекту нужен контроль со стороны человека.
Кроме того, наивно было бы полагать, что этот технологичный сектор будет прогрессировать, оставаясь в стороне от внимания Пентагона. Известный факт: многие новейшие разработки приходят из военных ведомств или активно используются ими.
Долгое время отрасли ИИ удавалось торпедировать любые попытки ее регулирования. Но за что боролись, как говорится, на то и напоролись: новейшие достижения привлекли не только инвесторов, но и пристальное внимание властей. Уж слишком ИТ-гиганты выросли, получив в свое распоряжение самые продвинутые технологии. Теперь, обладая новейшими разработками, они становятся опасными, представляя экзистенциальную угрозу человеку. Очевидно, что этот же факт привлекает и военные структуры.
Парадоксально, но спустя всего несколько часов после заявления о том, что правительство прекращает использование технологий, разработанных компанией Anthropic, США наносят крупный воздушный удар по Ирану, используя инструменты ее модели ИИ Claude (TechCrunch).
Ранее Anthropic, Google DeepMind, OpenAI, xAI и другие обходились обещанием управлять ИИ ответственно. Однако «сбои» при исполнении этих обещаний в последнее время заметно участились.
Достаточно вспомнить о недавнем разгоревшемся скандале с моделью Grok AI, с помощью приложения которой в Сети начали массово «обнажать» людей на фотографиях. При этом компания xAI Илона Маска ограничилась лишь тем, что убрала эту функцию из бесплатного доступа.
Об угрозах со стороны ИИ в свое время говорил и доктор Джеффри Хинтон, «крестный отец искусственного интеллекта» (разработчик проекта ChatGPT). В 2023 году в своем сенсационном интервью изданию The New York Times ученый поделился опасениями о том, что технология, над которой он работал больше полувека, может навредить человеку.
После принятых рестрикций со стороны федерального правительства США к Anthropic, которая слыла самой ответственной компанией сектора, ИТ-гигант может не только потерять многомиллионные контракты оборонного сектора, но и команду.
А все началось с отказа генерального директора Дарио Амодеи Пентагону в использовании технологий Anthropic для массового наблюдения за гражданами США, а также для создания автономных вооруженных дронов, способных выбирать и уничтожать цели без участия человека.
Ситуация накалилась после того, как на прошлой неделе Anthropic заявила об отказе от своего самого важного обязательства в области безопасности — обещания не выпускать мощные системы ИИ, пока не будет уверена, что они не причинят вреда.
После жестких решений по отношению к Anthropic представляется, что совместные усилия ИТ-гигантов по сопротивлению регулированию исчерпаны.
По моему мнению, сегодня американскому рынку дан четкий сигнал: или вы договариваетесь с военным ведомством, или вас будут «ломать через колено», как это произошло с разработчиком Claude.
Anthropic заявила, что подаст иск в суд против Пентагона. Однако ее перспективы не выглядят радужными.
После того, как стало известно об ограничительных мерах в отношении Anthropic, генеральный директор OpenAI Сэм Альтман объявил, что его компания достигла соглашения, позволяющего Министерству обороны США задействовать ее модели искусственного интеллекта в секретной сети ведомства.
Не удивлюсь, если в ближайшее время мы услышим о новых фактах использования технологий ИИ в военных целях.
Источник: tumen.mk.ru