НЬЮ-ЙОРК (ИА Реалист). Бывший исследователь по безопасности в OpenAI Стивен Адлер, уволившийся из компании в ноябре прошлого года, просит компании, занимающиеся разработкой искусственного интеллекта не ускорять темпы развития ИИ, поскольку данная отрасль весьма опасна.
Адлер регулярно публикует в социальной сети Х посты, в которых выражает обеспокоенность стремлением компаний побыстрее разработать общий искусственный интеллект (AGI).
AGI — это теоретический термин, обозначающий системы, которые соответствуют или превосходят людей в решении любых интеллектуальных задач.
Адлер заявляет, что технологии ИИ развиваются так быстро, что «ставят под угрозу будущее человечества».
«Меня в настоящее время пугают темпы развития ИИ. Когда я думаю о том, где буду растить семью в будущем или сколько откладывать на пенсию, я не могу не задаться вопросом: доживет ли человечество до этого момента?», — написал он в одном из постов.
До работы в OpenAI Адлер руководилисследованиями в области безопасности для «впервые запускаемых продуктов» и «более перспективных долгосрочных систем ИИ».
«Гонка за AGI — это очень рискованная авантюра с огромными потерями», — уверен он.
Адлер также отметил, что ни одна исследовательская лаборатория не имеет решения для согласования ИИ — процесса обеспечения соответствия систем набору человеческих ценностей — и что отрасль, возможно, движется слишком быстро, чтобы решить эту проблему.
«Чем быстрее мы мчимся, тем меньше вероятность, что кто-то успеет это сделать», —предупреждает Адлер.
Его публикации в X появились после того, как китайская компания DeepSeek, которая также стремится разработать AGI, потрясла американскую технологическую индустрию, представив модель, которая может составить конкуренцию технологии OpenAI, несмотря на то, что на ее разработку было потрачено явно меньше ресурсов.
Некоторые эксперты, такие как лауреат Нобелевской премии Джеффри Хинтон, опасаются, что мощные системы ИИ могут выйти из-под контроля человека с потенциально катастрофическими последствиями. Другие, такие как главный ученый Meta по ИИ Янн Лекун, преуменьшают экзистенциальную угрозу, заявляя, что ИИ «на самом деле может спасти человечество от вымирания».