Anthropic ограничивает выпуск Mythos из-за проблем с кибербезопасностью

Anthropic ограничила выпуск своей новой AI-модели Mythos, ссылаясь на её способность находить уязвимости в безопасности. Компания утверждает, что возможности модели представляют угрозу для глобальной безопасности программного обеспечения. Это решение принято, несмотря на возникающие вопросы о внутренних проблемах лаборатории.
Возможности модели Mythos
Модель Mythos от Anthropic, как сообщается, обладает высокой способностью выявлять уязвимости в безопасности широко используемого программного обеспечения. Компания выразила обеспокоенность тем, что такие возможности могут быть использованы в злоумышленных целях, что может привести к массовым нарушениям безопасности. Это побудило Anthropic ограничить доступность Mythos только для избранных партнёров. Решение отражает осторожный подход компании к внедрению AI на фоне растущих угроз кибербезопасности.
Реакция индустрии
Технологическая индустрия продемонстрировала смешанную реакцию на решение Anthropic. Некоторые эксперты, включая представителей кибербезопасности, поддерживают осторожный выпуск, ссылаясь на потенциальные риски. Однако другие ставят под сомнение, не обусловлено ли решение Anthropic внутренними проблемами, а не реальными проблемами безопасности. Дебаты подчеркивают продолжающееся напряжение между инновациями и безопасностью в развитии AI.
Что дальше
Anthropic планирует в ближайшие месяцы провести обзор возможностей Mythos с внешними экспертами. Остаётся неясным, как это повлияет на более широкий ландшафт AI и политику безопасности.
1 источник
Anthropic ограничивает выпуск Mythos из-за проблем с кибербезопасностью

