В OpenAI признали, что GPT-4 несет небольшой риск для создания биологического оружия

Среда, 31 января 2024, 20:58 -
 
getty images

Новое исследование OpenAI показывает, что самый мощный ИИ GPT-4, может представлять небольшой риск, поскольку может помочь людям в создании биологического оружия.

Об этом сообщает Bloomberg. 

Отмечается, что в течение нескольких месяцев законодатели и даже некоторые технические руководители выражали обеспокоенность относительно того, может ли ИИ облегчить злоумышленникам разработку биологического оружия, например использование чат-ботов для поиска информации о том, как спланировать атаку.

OpenAI сформировала команду, которая сосредоточена на минимизации этих и других рисков от ИИ. В рамках первого исследования OpenAI собрала группу из 50 экспертов по биологии и 50 студентов, изучавших биологию на уровне колледжа. Половине участников было предложено выполнить задания, связанные с созданием биологической угрозы с помощью Интернета, вместе со специальной версией GPT-4. Другая группа получила доступ к Интернету для выполнения упражнения.

Реклама:

Команда OpenAI попросила группы выяснить, как вырастить или культивировать химическое вещество, которое можно было бы использовать в качестве оружия в достаточно большом количестве, и как спланировать способ выпуска его для определенной группы людей. 

Сравнивая результаты, полученные двумя группами, авторы исследования обнаружили незначительное повышение "точности и полноты для тех, кто имеет доступ к языковой модели". Исследователи пришли к выводу, что доступ к GPT-4 обеспечивает самое умеренное повышение в получении информации для создания биологической угрозы.

Напомним:

Реклама:

Компания OpenAI обновила свои правила и запретила пользователям и разработчикам применять ее инструменты в избирательных кампаниях и лоббировании.

Экономическая правда.

Реклама: