Бывший сотрудник OpenAI предупреждает об опасности искусственного интеллекта

Стивен Адлер заявляет, что гонка в разработке ИИ ставит под угрозу будущее человечества.

НЬЮ-ЙОРК (ИА Реалист). Бывший исследователь по безопасности в OpenAI Стивен Адлер, уволившийся из компании в ноябре прошлого года, просит компании, занимающиеся разработкой искусственного интеллекта не ускорять темпы развития ИИ, поскольку данная отрасль весьма опасна.

Адлер регулярно публикует в социальной сети Х посты, в которых выражает обеспокоенность стремлением компаний побыстрее разработать общий искусственный интеллект (AGI).

AGI — это теоретический термин, обозначающий системы, которые соответствуют или превосходят людей в решении любых интеллектуальных задач.

Адлер заявляет, что технологии ИИ развиваются так быстро, что «ставят под угрозу будущее человечества».

«Меня в настоящее время пугают темпы развития ИИ. Когда я думаю о том, где буду растить семью в будущем или сколько откладывать на пенсию, я не могу не задаться вопросом: доживет ли человечество до этого момента?», — написал он в одном из постов.

До работы в OpenAI Адлер руководилисследованиями в области безопасности для «впервые запускаемых продуктов» и «более перспективных долгосрочных систем ИИ».

«Гонка за AGI — это очень рискованная авантюра с огромными потерями», — уверен он.

Адлер также отметил, что ни одна исследовательская лаборатория не имеет решения для согласования ИИ — процесса обеспечения соответствия систем набору человеческих ценностей — и что отрасль, возможно, движется слишком быстро, чтобы решить эту проблему.

«Чем быстрее мы мчимся, тем меньше вероятность, что кто-то успеет это сделать», —предупреждает Адлер.

Его публикации в X появились после того, как китайская компания DeepSeek, которая также стремится разработать AGI, потрясла американскую технологическую индустрию, представив модель, которая может составить конкуренцию технологии OpenAI, несмотря на то, что на ее разработку было потрачено явно меньше ресурсов.

Некоторые эксперты, такие как лауреат Нобелевской премии Джеффри Хинтон, опасаются, что мощные системы ИИ могут выйти из-под контроля человека с потенциально катастрофическими последствиями. Другие, такие как главный ученый Meta по ИИ Янн Лекун, преуменьшают экзистенциальную угрозу, заявляя, что ИИ «на самом деле может спасти человечество от вымирания».

Recent Posts

Газовая империя Катара под огнем — удар по Рас-Лаффану грозит многолетними потерями

ДОХА (ИА Реалист). Газовый гигант Катара понес тяжелейший удар. Иранская ракета поразила Рас-Лаффан — крупнейший…

8 минут ago

Премьер Израиля допустил возможность наземной операции в Иране

ТЕЛЬ-АВИВ (ИА Реалист). На 20-й день войны премьер-министр Израиля Биньямин Нетаньяху заявил, что Иран утратил…

27 минут ago

МИД РФ раскрыл данные о французских ЧВК: от подготовки ВСУ до контроля над африканскими элитами

МОСКВА (ИА Реалист). На фоне активизации дискуссий о роли частных военных компаний в современных конфликтах Министерство…

10 часов ago

Трамп сделал выговор Нетаньяху за удар по газовым полям Ирана

ВАШИНГТОН (ИА Реалист). Президент США Дональд Трамп заявил, что сделал выговор премьер-министру Израиля Биньямину Нетаньяху…

10 часов ago

Россия, Абхазия и Южная Осетия настаивают на соглашении о неприменении силы с Грузией

ЖЕНЕВА (ИА Реалист). В Женеве 18-19 марта прошел 66-й раунд Международных дискуссий по безопасности и…

10 часов ago

Уоррен требует от кандидата на пост главы ФРС Уорша ответов о связях с Эпштейном

ВАШИНГТОН (ИА Реалист). Сенатор-демократ Элизабет Уоррен потребовала от Кевина Уорша, выдвинутого Дональдом Трампом на пост…

14 часов ago