Развитие искусственного интеллекта угрожает человечеству - ученый

3 апреля 2023 г. 13:03 / Евразия

В конце марта около 2 тысяч человек подписали открытое письмо с призывом по меньшей мере на полгода остановить обучение нейросетей мощнее GPT-4. Инициативу поддержали Илон Маск, сооснователь Apple Стив Возняк, соучредитель Pinterest Эван Шарп, а также инженеры, учёные и исследователи. Похожей и даже более радикальной точки зрения придерживается Элиезер Юдковский — один из самых известных исследователей искусственного интеллекта, передает Arbat.media.

Журнал Time опубликовал колонку Юдковского в ответ на инициативу 2 тысяч подписантов. В ней исследователь предупредил, что проблема с искусственным интеллектом гораздо глубже и опаснее, потому что, развившись до нечеловеческого уровня, он просто сочтёт нас, людей, недостойными существования.

Я воздержался от подписи, потому что считаю, что письмо преуменьшает серьезность ситуации. Ключевым вопросом является не интеллект, конкурентоспособный по сравнению с человеческим, а то, что произойдет после того, как ИИ достигнет интеллекта, превосходящего человеческий. В настоящее время кажется возможным, что исследовательская лаборатория [создающая ИИ] переступит критические границы, не заметив этого, - рассказал он.

По словам эксперта, наиболее вероятным результатом создания сверхчеловечески умного ИИ в условиях, отдаленно напоминающих нынешние, будет гибель буквально всех людей на Земле.

Не в смысле «возможно, есть какая-то отдаленная вероятность», а в смысле «это очевидная вещь, которая произойдет». Дело не в том, что вы в принципе не можете выжить, создав что-то гораздо более умное, чем вы. Дело в том, что это [изобретение ИИ] потребует точности, подготовки и новых научных открытий, - подчеркнул он.

Без такой точности и подготовки наиболее вероятным результатом станет ИИ, который не будет делать то, что мы хотим, и его не будем заботить ни мы, ни разумная жизнь в целом, считает Элиезер Юдковский. Такого рода забота — это то, что в принципе можно заложить в ИИ, но мы еще не готовы и не знаем, как это сделать.

Автор
Новости партнеров