Financial Times: Искусственный интеллект OpenAI может быть использован для создания биологического оружия
Новые модели искусственного интеллекта (ИИ) от компании OpenAI могут быть использованы для создания биологического оружия, что повышает уровень риска до «среднего», сообщает Financial Times со ссылкой на системный документ компании, передает Arbat.media
Это самый высокий уровень риска, когда-либо присвоенный моделям OpenAI. Новый класс ИИ, известный как «o1», демонстрирует улучшенные способности в решении сложных математических задач и ответов на научные вопросы. Так, «o1» успешно решил 83% задач квалификационного экзамена для Международной математической олимпиады, в то время как предыдущая модель справилась только с 13%.
Создатели отмечают, что модели «o1» способны к пошаговому логическому мышлению. Эксперты предупреждают, что это повышает риск их использования злоумышленниками, в частности, для создания химического, биологического, радиологического и ядерного оружия.
В связи с этим губернатор Калифорнии Гэвин Ньюсом в ближайшее время рассмотрит законопроект, обязывающий разработчиков ИИ принимать меры для минимизации рисков использования этих технологий для создания биологического оружия. Представители технологических компаний, включая OpenAI, выражают опасения, что принятие документа замедлит развитие ИИ.
Технический директор OpenAI Мира Мурати заверила Financial Times, что модель «o1» показала значительно лучшие результаты по безопасности по сравнению с предыдущими версиями ИИ.
Превью-версия модели «o1» уже доступна пользователям платной подписки ChatGPT.