Бывший сотрудник OpenAI предупреждает об опасности искусственного интеллекта

Стивен Адлер заявляет, что гонка в разработке ИИ ставит под угрозу будущее человечества.

НЬЮ-ЙОРК (ИА Реалист). Бывший исследователь по безопасности в OpenAI Стивен Адлер, уволившийся из компании в ноябре прошлого года, просит компании, занимающиеся разработкой искусственного интеллекта не ускорять темпы развития ИИ, поскольку данная отрасль весьма опасна.

Адлер регулярно публикует в социальной сети Х посты, в которых выражает обеспокоенность стремлением компаний побыстрее разработать общий искусственный интеллект (AGI).

AGI — это теоретический термин, обозначающий системы, которые соответствуют или превосходят людей в решении любых интеллектуальных задач.

Адлер заявляет, что технологии ИИ развиваются так быстро, что «ставят под угрозу будущее человечества».

«Меня в настоящее время пугают темпы развития ИИ. Когда я думаю о том, где буду растить семью в будущем или сколько откладывать на пенсию, я не могу не задаться вопросом: доживет ли человечество до этого момента?», — написал он в одном из постов.

До работы в OpenAI Адлер руководилисследованиями в области безопасности для «впервые запускаемых продуктов» и «более перспективных долгосрочных систем ИИ».

«Гонка за AGI — это очень рискованная авантюра с огромными потерями», — уверен он.

Адлер также отметил, что ни одна исследовательская лаборатория не имеет решения для согласования ИИ — процесса обеспечения соответствия систем набору человеческих ценностей — и что отрасль, возможно, движется слишком быстро, чтобы решить эту проблему.

«Чем быстрее мы мчимся, тем меньше вероятность, что кто-то успеет это сделать», —предупреждает Адлер.

Его публикации в X появились после того, как китайская компания DeepSeek, которая также стремится разработать AGI, потрясла американскую технологическую индустрию, представив модель, которая может составить конкуренцию технологии OpenAI, несмотря на то, что на ее разработку было потрачено явно меньше ресурсов.

Некоторые эксперты, такие как лауреат Нобелевской премии Джеффри Хинтон, опасаются, что мощные системы ИИ могут выйти из-под контроля человека с потенциально катастрофическими последствиями. Другие, такие как главный ученый Meta по ИИ Янн Лекун, преуменьшают экзистенциальную угрозу, заявляя, что ИИ «на самом деле может спасти человечество от вымирания».

Recent Posts

Правый кандидат Хосе Антонио Каст победил на президентских выборах в Чили

САНТЬЯГО (ИА Реалист). Правый политик Хосе Антонио Каст одержал победу на президентских выборах в Чили,…

7 часов ago

Кадыров заявил о готовности участвовать в выборах при поддержке Путина и народа

ГРОЗНЫЙ (ИА Реалист). Глава Чеченской Республики Рамзан Кадыров во время ежегодной прямой линии заявил, что…

7 часов ago

Альянс с США и тень Тайваня: Сеул между Вашингтоном и Пекином

СЕУЛ (ИА Реалист). Усиление давления со стороны США на своих союзников с целью укрепления обороны…

9 часов ago

Внутри династии Ротшильдов: Ханна Ротшильд — о власти, доверии и ответственности

ЛОНДОН (ИА Реалист). Ханна Ротшильд, одна из ключевых фигур знаменитой банковской династии Ротшильдов, призналась, что…

11 часов ago

Австралийские власти назвали героем мужчину, обезвредившего стрелка в Сиднее

СИДНЕЙ (ИА Реалист). Австралийский гражданин Ахмед аль-Ахмад, мусульманин по вероисповеданию, обезвредил одного из стрелков во…

14 часов ago

Правительство направило более ₽60,5 млрд на поддержку льготных кредитов для аграриев

МОСКВА (ИА Реалист). Правительство России дополнительно выделило более ₽60,5 млрд на поддержку программы льготного кредитования…

1 день ago