Ученый из США Элиезер Юдковский призвал прекратить тестировать искусственный интеллект (ИИ) из-за его опасности для всего человечества. Об этом он написал в статье для Time.
Он отметил, что бизнесмены Илон Маск и Стив Возняк, призвавшие ранее приостановить обучение нейросетей как минимум на полгода, серьезно недооценивают ситуацию. «Многие исследователи, погруженные в эти вопросы, в том числе и я, ожидают, что наиболее вероятным результатом создания сверхчеловечески умного ИИ при любых обстоятельствах, отдаленно напоминающих нынешние, будет то, что буквально все на Земле умрут», — говорится в статье.
Юдковский предложил бессрочно запретить по всему миру обучение и использование искусственного интеллекта, в том числе для правительств и вооруженных сил. При получении данных разведки о строительстве кластера графических процессов в той или иной стране ученый призвал быть готовыми к уничтожению центра обработки данных с помощью ударов. «Четко заявить в международной дипломатии, что предотвращение сценариев вымирания ИИ считается приоритетом, а не предотвращение полного обмена ядерными ударами, и что союзные ядерные страны готовы пойти на некоторый риск обмена ядерными ударами, если это необходимо для снижения риска крупных тренировок ИИ», — написал он.
Ранее Маск и Возняк в своем письме, призывавшем «немедленно приостановить» обучение систем искусственного интеллекта, отмечали, что это необходимо сделать, чтобы понять, что такие системы действительно безопасны. Они также задались вопросами о том, насколько правильно внедрять ИИ во все сферы жизни.
Внимание!
Комментирование временно доступно только для зарегистрированных пользователей.
Подробнее
Комментарии 3
Редакция оставляет за собой право отказать в публикации вашего комментария.
Правила модерирования.