Bloomberg заявил о возможностях чат-ботов в разработке биологического оружия

Чат-боты с искусственным интеллектом (ИИ) способны помочь пользователям создать биологическое оружие. Об этом сообщает агентство Bloomberg.
Синтез синтетической биологии и ИИ может стать значимой угрозой для правительств. Специалисты отмечают, что генеративный ИИ продолжает совершенствоваться, и это может привести к созданию новых биологических систем, таких как вирусы и токсины, которых в настоящее время не существует. Биолог и доцент Массачусетского технологического института Кевин Эсвелт подчеркивает, что на данный момент нет возможности защищаться от таких угроз.
Весной 2023 года биохимик и бывший инспектор ООН Рокко Касагранде предупредил чиновников Белого дома о возможности создания биологического оружия при помощи чат-ботов. Нейросети способны помочь террористам идентифицировать биологические агенты. Касагранде привел этот вывод после того, как компания Anthropic — разработчик чат-бота Claude — попросила его проверить научные возможности своей нейросети.
Сооснователь Anthropic Джек Кларк выразил обеспокоенность тем, что Claude и другие чат-боты могут научить пользователей создавать потенциально опасные вирусы. В 2005 году Касагранде основал фирму Gryphon Scientific, которая имеет контракты с Пентагоном и Национальным институтом здравоохранения. Для тестирования возможности Claude, он собрал команду экспертов в микробиологии и вирусологии. На протяжении 150 часов они задавали нейросети вопросы, касающиеся биотерроризма.
Claude предложил различные способы использования патогенов, что вызвало значительное беспокойство среди исследователей. Старший аналитик Gryphon Одри Серлес отметила, что ответы чат-бота выходили за рамки обычного поиска информации в интернете.
После завершения тестов, Касагранде обратился к Кевину Эсвелту с просьбой купить синтетическую ДНК для создания одного из предложенных патогенов. Пробирки с ДНК он потом отнес в Белый дом, где данная информация вызвала интерес у президента Джо Байдена, вице-президента Камалы Харрис и советника по национальной безопасности Джейка Салливана.
В июле 2023 года крупные компании в области ИИ, включая OpenAI, Anthropic и Microsoft, обязались оценивать риски в сфере биобезопасности. В октябре администрация Байдена издала указ о усилении контроля за финансируемыми государством исследованиями искусственных геномов. Камала Харрис подчеркнула, что биологическое оружие, созданное ИИ, «может поставить под угрозу само существование человечества».
Том Инглесби, директор Центра безопасности в области здравоохранения при Университете Джонса Хопкинса, полагает, что правительству следует занять более жесткую позицию и регулярно проверять компании, занимающиеся ИИ. Он считает, что текущий указ не предоставляет властям достаточных полномочий.
В июле 174 ученых, среди которых лауреат Нобелевской премии по химии Фрэнсис Арнольд и один из пионеров современных методов редактирования геномов Джордж Черч, подписали письмо с обязательством использовать ИИ для поддержки исследований, которые предотвратят сценарии конца света. В документе подчеркивается, что преимущества ИИ «намного перевешивают потенциальный вред».