Бывший сотрудник OpenAI предупреждает об опасности искусственного интеллекта

Стивен Адлер заявляет, что гонка в разработке ИИ ставит под угрозу будущее человечества.

НЬЮ-ЙОРК (ИА Реалист). Бывший исследователь по безопасности в OpenAI Стивен Адлер, уволившийся из компании в ноябре прошлого года, просит компании, занимающиеся разработкой искусственного интеллекта не ускорять темпы развития ИИ, поскольку данная отрасль весьма опасна.

Адлер регулярно публикует в социальной сети Х посты, в которых выражает обеспокоенность стремлением компаний побыстрее разработать общий искусственный интеллект (AGI).

AGI — это теоретический термин, обозначающий системы, которые соответствуют или превосходят людей в решении любых интеллектуальных задач.

Адлер заявляет, что технологии ИИ развиваются так быстро, что «ставят под угрозу будущее человечества».

«Меня в настоящее время пугают темпы развития ИИ. Когда я думаю о том, где буду растить семью в будущем или сколько откладывать на пенсию, я не могу не задаться вопросом: доживет ли человечество до этого момента?», — написал он в одном из постов.

До работы в OpenAI Адлер руководилисследованиями в области безопасности для «впервые запускаемых продуктов» и «более перспективных долгосрочных систем ИИ».

«Гонка за AGI — это очень рискованная авантюра с огромными потерями», — уверен он.

Адлер также отметил, что ни одна исследовательская лаборатория не имеет решения для согласования ИИ — процесса обеспечения соответствия систем набору человеческих ценностей — и что отрасль, возможно, движется слишком быстро, чтобы решить эту проблему.

«Чем быстрее мы мчимся, тем меньше вероятность, что кто-то успеет это сделать», —предупреждает Адлер.

Его публикации в X появились после того, как китайская компания DeepSeek, которая также стремится разработать AGI, потрясла американскую технологическую индустрию, представив модель, которая может составить конкуренцию технологии OpenAI, несмотря на то, что на ее разработку было потрачено явно меньше ресурсов.

Некоторые эксперты, такие как лауреат Нобелевской премии Джеффри Хинтон, опасаются, что мощные системы ИИ могут выйти из-под контроля человека с потенциально катастрофическими последствиями. Другие, такие как главный ученый Meta по ИИ Янн Лекун, преуменьшают экзистенциальную угрозу, заявляя, что ИИ «на самом деле может спасти человечество от вымирания».

Recent Posts

Хаменеи пригрозил США «региональной войной» в случае удара по Ирану

ТЕГЕРАН (ИА Реалист). Верховный лидер Ирана Али Хаменеи заявил, что возможное нападение США на Иран…

21 час ago

Индия закладывает рекордные расходы на инфраструктуру и оборону

НЬЮ-ДЕЛИ (ИА Реалист). Власти Индии планируют направить рекордные средства на инфраструктуру и оборону. Об этом…

22 часа ago

В Японии половина крупных городов потеряла население за 10 лет

ТОКИО (ИА Реалист). Половина из 20 крупнейших городов Японии с населением более 700 тыс. человек…

23 часа ago

Индия намерена сократить бюджетный дефицит и ускорить рост промышленности

НЬЮ-ДЕЛИ (ИА Реалист). Правительство Индия планирует умеренно улучшить фискальные показатели в следующем финансовом году, одновременно…

2 дня ago

«Иранский Дэн Сяопин»: Лариджани готовит Иран к жизни после Хаменеи

ТЕГЕРАН (ИА Реалист). Секретарь Высшего совета национальной безопасности Ирана Али Лариджани оказался в центре жесткого…

2 дня ago

Китай намерен укреплять защиту своих морских перевозок после перехватов США

ПЕКИН (ИА Реалист). Китай готов искать пути защиты своих морских интересов в ответ на участившиеся…

3 дня ago