Icma.az
close
up
AZ
Menu

Чернобыль на грани: саркофаг может не пережить новый удар

Футболисты Нефтчи и Сумгайыта не помогли против Конго

Жена миллиардера Безоса вышла на публику с сумкой за $50 тысяч

Торговля органами: украинку экстрадировали в Казахстан ФОТО

Джеки Чан пронес олимпийский огонь по древним руинам Помпей ВИДЕО

Конференция в Баку: ИСЕСКО призвала всех объединить усилия для защиты детей в цифровой среде

Безвиз для дипломатов: соглашение Азербайджана и Омана ратифицировано

Документальный фильм Nur Zəfəri: исторический путь развития энергетики Азербайджана

В Китае представили самую мощную ИИ модель для программирования

Индусам разрешили покупать у Роснефти

Экстренные меры против грабителей: Лувр ставит решетки на окна

Кадры аварии, в которой погиб создатель Call of Duty ВИДЕО

Вице президент AZAL: Вышли из строя три жизненно важные системы самолета

Замминистра экологии Азербайджана встретился с турецкой делегацией

В Турции минимальная зарплата повышена на 27 %

Гасаналиев застрелил и похоронил Акперова

Mercedes Benz потеряет 150 миллионов долларов: ПРИЧИНА

Токаев поздравил Ильхама Алиева Minval Politika

Президент Ильхам Алиев заложил фундамент производственного предприятия ООО "Saloğlu Qarabağ" в Агдаме ФОТО

От российского черного золота отказываются уже Китай и Индия

OpenAI признала способность ChatGPT для создания биологического оружия

OpenAI признала способность ChatGPT для создания биологического оружия

Как стало известно Icma.az, со ссылкой на сайт Vesti.

Руководители OpenAI предупредили, что их следующее поколение моделей искусственного интеллекта (ChatGPT) может нести новые риски – вплоть до создания биологического оружия, позволят людям без научного образования создавать потенциально опасные вещества.

Хотя точные сроки появления высокорисковых ИИ не называются, глава отдела систем безопасности OpenAI Йоханнес Хайдеке подчеркнул, что "некоторые из преемников o3 достигнут этого уровня".

"Мы еще не в том мире, где есть что-то новое, совершенно неизвестное, создающее биологические угрозы, которые не существовали ранее. Мы больше беспокоимся о воспроизведении вещей, с которыми уже хорошо знакомы эксперты", – пояснил Хайдеке.

Сложность ограничения ИИ заключается в том, что некоторые из тех же возможностей, которые могли бы позволить большим языковым моделям (LLM) совершать прорывы в медицине, также могут быть использованы во вред.

Он признал, что OpenAI и другим компаниям нужны системы обнаружения, способные предотвращать вредоносное использование с точностью выше 99%, а лучше – в пределах одного случая на сто тысяч. Вместе с тем важен человеческий надзор: мониторинговые команды должны быстро реагировать на инциденты, которые обходят автоматическую фильтрацию, и оперативно устранять потенциальную угрозу.

Еще в 2024 году OpenAI заявляла о разработке системы раннего предупреждения, способной блокировать попытки использования ChatGPT для получения данных, которые могли бы способствовать созданию биологического оружия.  В апреле была внедрена система наблюдения за моделями o3 и o4-mini, отслеживающая потенциально опасные запросы, связанные с химическими и биологическими угрозами. Эти меры направлены на то, чтобы ИИ не давал инструкций, способных привести к разработке реального оружия.

Накануне ученные впервые нашли доказательства того, что ИИ может мыслить как человек. Это открытие может повлиять на развитие ИИ и изменить подход к оценке его когнитивных способностей.

Не пропустите дальнейшие события, следите за актуальными новостями на Icma.az.
seeПросмотров:128
embedИсточник:https://vesti.az
archiveЭта новость заархивирована с источника 20 Июня 2025 17:54
0 Комментариев
Войдите, чтобы оставлять комментарии...
Будьте первыми, кто ответит на публикацию...
topСамые читаемые
Самые обсуждаемые события прямо сейчас

Чернобыль на грани: саркофаг может не пережить новый удар

23 Декабря 2025 23:55see252

Футболисты Нефтчи и Сумгайыта не помогли против Конго

23 Декабря 2025 23:18see249

Жена миллиардера Безоса вышла на публику с сумкой за $50 тысяч

24 Декабря 2025 09:46see242

Торговля органами: украинку экстрадировали в Казахстан ФОТО

24 Декабря 2025 09:36see201

Джеки Чан пронес олимпийский огонь по древним руинам Помпей ВИДЕО

23 Декабря 2025 12:14see194

Конференция в Баку: ИСЕСКО призвала всех объединить усилия для защиты детей в цифровой среде

23 Декабря 2025 13:06see188

Безвиз для дипломатов: соглашение Азербайджана и Омана ратифицировано

23 Декабря 2025 13:26see182

Документальный фильм Nur Zəfəri: исторический путь развития энергетики Азербайджана

25 Декабря 2025 02:43see179

В Китае представили самую мощную ИИ модель для программирования

23 Декабря 2025 12:16see178

Индусам разрешили покупать у Роснефти

25 Декабря 2025 02:00see171

Экстренные меры против грабителей: Лувр ставит решетки на окна

23 Декабря 2025 21:45see160

Кадры аварии, в которой погиб создатель Call of Duty ВИДЕО

23 Декабря 2025 09:49see157

Вице президент AZAL: Вышли из строя три жизненно важные системы самолета

23 Декабря 2025 11:29see154

Замминистра экологии Азербайджана встретился с турецкой делегацией

23 Декабря 2025 19:43see153

В Турции минимальная зарплата повышена на 27 %

23 Декабря 2025 21:30see153

Гасаналиев застрелил и похоронил Акперова

24 Декабря 2025 23:06see152

Mercedes Benz потеряет 150 миллионов долларов: ПРИЧИНА

23 Декабря 2025 16:12see151

Токаев поздравил Ильхама Алиева Minval Politika

23 Декабря 2025 12:14see151

Президент Ильхам Алиев заложил фундамент производственного предприятия ООО "Saloğlu Qarabağ" в Агдаме ФОТО

23 Декабря 2025 16:30see150

От российского черного золота отказываются уже Китай и Индия

24 Декабря 2025 00:47see150
newsПоследние новости
Самые свежие и актуальные события дня