Бывший сотрудник OpenAI предупреждает об опасности искусственного интеллекта

Стивен Адлер заявляет, что гонка в разработке ИИ ставит под угрозу будущее человечества.

НЬЮ-ЙОРК (ИА Реалист). Бывший исследователь по безопасности в OpenAI Стивен Адлер, уволившийся из компании в ноябре прошлого года, просит компании, занимающиеся разработкой искусственного интеллекта не ускорять темпы развития ИИ, поскольку данная отрасль весьма опасна.

Адлер регулярно публикует в социальной сети Х посты, в которых выражает обеспокоенность стремлением компаний побыстрее разработать общий искусственный интеллект (AGI).

AGI — это теоретический термин, обозначающий системы, которые соответствуют или превосходят людей в решении любых интеллектуальных задач.

Адлер заявляет, что технологии ИИ развиваются так быстро, что «ставят под угрозу будущее человечества».

«Меня в настоящее время пугают темпы развития ИИ. Когда я думаю о том, где буду растить семью в будущем или сколько откладывать на пенсию, я не могу не задаться вопросом: доживет ли человечество до этого момента?», — написал он в одном из постов.

До работы в OpenAI Адлер руководилисследованиями в области безопасности для «впервые запускаемых продуктов» и «более перспективных долгосрочных систем ИИ».

«Гонка за AGI — это очень рискованная авантюра с огромными потерями», — уверен он.

Адлер также отметил, что ни одна исследовательская лаборатория не имеет решения для согласования ИИ — процесса обеспечения соответствия систем набору человеческих ценностей — и что отрасль, возможно, движется слишком быстро, чтобы решить эту проблему.

«Чем быстрее мы мчимся, тем меньше вероятность, что кто-то успеет это сделать», —предупреждает Адлер.

Его публикации в X появились после того, как китайская компания DeepSeek, которая также стремится разработать AGI, потрясла американскую технологическую индустрию, представив модель, которая может составить конкуренцию технологии OpenAI, несмотря на то, что на ее разработку было потрачено явно меньше ресурсов.

Некоторые эксперты, такие как лауреат Нобелевской премии Джеффри Хинтон, опасаются, что мощные системы ИИ могут выйти из-под контроля человека с потенциально катастрофическими последствиями. Другие, такие как главный ученый Meta по ИИ Янн Лекун, преуменьшают экзистенциальную угрозу, заявляя, что ИИ «на самом деле может спасти человечество от вымирания».

Recent Posts

Кавказская Албания — не Азербайджан: историческое государство лезгин и фальсификации Баку

МАХАЧКАЛА (ИА Реалист). Кавказская Албания — одно из загадочных и древних государств, вокруг истории которого сегодня…

34 минуты ago

Кремль доверил Дагестан федеральному судье: что известно о жизни и карьере Фёдора Щукина

МОСКВА (ИА Реалист). Президент России Владимир Путин назначил председателя Верховного суда Дагестана Фёдора Щукина временно исполняющим обязанности главы…

4 часа ago

ОАЭ наращивают добычу в обход ОПЕК, но нефть дорожает

МОСКВА (ИА Реалист). Ведущий научный сотрудник ИМЭМО РАН, кандидат исторических наук Станислав Иванов проанализировал для ИА Реалист возможные…

5 часов ago

ЦАХАЛ наносит удары по «Хизбалле», готовится к новой фазе войны в Газе и атакует иранские корабли в Каспийском море

ТЕЛЬ-АВИВ (ИА Реалист). 5 мая 2026 года, в 942-й день войны, которую Израиль ведет против террористических…

11 часов ago

70% европейцев воспринимают Россию как угрозу, но в Южной и Восточной Европе нарастает раскол

БРЮССЕЛЬ (ИА Реалист). Спустя четыре года после начала СВО на Украине Европа остаётся глубоко расколотой в…

11 часов ago

Арабские банки отчитались о рекордных квартальных прибылях

ДУБАЙ (ИА Реалист). Банковская система стран Персидского залива завершила первый квартал 2026 года на рекордных…

12 часов ago