Сооснователь Apple и ещё сотни влиятельных людей выступили против создания всемогущего ИИ
Icma.az, ссылаясь на сайт Zerkalo.az, передает.
Более 850 общественных деятелей подписали заявление с призывом запретить разработку искусственного сверхинтеллекта.
Более 850 экспертов по искусственному интеллекту, предпринимателей и общественных деятелей подписали открытое заявление с призывом остановить разработку сверхинтеллекта — ИИ, который способен превзойти человека практически во всех когнитивных задачах. Об этом сообщает CNBC, передает unian.net.
Среди подписантов — основатель Virgin Ричард Брэнсон, сооснователь Apple Стив Возняк, а также ключевые фигуры в развития ИИ — Йошуа Бенжио, Джеффри Хинтон и профессор Калифорнийского университета в Беркли Стюарт Рассел.
Эти исследователи, которых называют «крёстными отцами искусственного интеллекта», предупреждают, что создание сверхинтеллекта без контроля может привести к ограничению свобод людей, угрозам безопасности и даже риску вымирания человечества.
Авторы заявления требуют временного запрета на разработку таких систем, по крайней мере до тех пор, пока не появится научный консенсус и широкая общественная поддержка, подтверждающие, что сверхинтеллект можно создать и безопасно контролировать.
К инициативе присоединились не только специалисты по технологиям, но и представители самых разных сфер: учёные, журналисты, религиозные лидеры, бывшие политики.
В числе подписантов оказались экс-глава Объединённого комитета начальников штабов США Майк Маллен, бывший советник по нацбезопасности Сьюзан Райс, а также Стив Бэннон и Гленн Бек, известные союзники Дональда Трампа. Из более неожиданных имён — принц Гарри и Меган Маркл, а также экс-президент Ирландии Мэри Робинсон.
В заявлении подчёркивается, что даже лидеры крупнейших компаний, работающих с ИИ, осознают опасность слишком быстрого прогресса. Так, Сэм Альтман ещё в 2015 году писал, что развитие сверхчеловеческого интеллекта — это, вероятно, главная угроза существованию человечества, а Илон Маск оценил вероятность катастрофического исхода от создания такого ИИ в 20%.
Один из инициаторов заявления, Йошуа Бенжио, отметил, что уже через несколько лет ИИ может превзойти большинство людей в большинстве умственных задач:
«Чтобы безопасно двигаться в сторону сверхинтеллекта, нужно научно определить, как создавать системы, которые в принципе не способны причинять вред — ни из-за ошибок, ни из-за злонамеренного использования».
Другие новости на эту тему:
Просмотров:36
Эта новость заархивирована с источника 25 Октября 2025 21:45 



Войти
Новости
Погода
Магнитные бури
Время намаза
Драгоценные металлы
Конвертор валют
Кредитный калькулятор
Курс криптовалют
Гороскоп
Вопрос - Ответ
Проверьте скорость интернета
Радио Азербайджана
Азербайджанское телевидение
О нас
TDSMedia © 2025 Все права защищены







Самые читаемые



















