Исследователь искусственного интеллекта Элиезер Юдковский считает, что все системы искусственного интеллекта должны быть закрыты ради безопасности человечества.
Ученый написал статью на эту тему для журнала Time под названием «Недостаточно приостановить разработку ИИ. Нам нужно закрыть все это». В публикации исследователь заявил, что он отказался подписать письмо о приостановке исследований нейронных сетей, потому что их необходимо полностью прекратить.
Эксперт по искусственному интеллекту считает, что если людям удастся создать сверхинтеллектуальную нейронную сеть при нынешней эволюции общества, существованию нашего вида придет конец. То же самое будет справедливо и для других живых существ; для машинного разума жизнь не имеет ценности, а забота о людях и животных станет бесполезной и бессмысленной тратой ресурсов.
Необходим запрет на нераспространение искусственного интеллекта, наравне с аналогичным запретом на ядерное оружие. Мораторий Юдковского предусматривает последствия в виде облав на центры обработки информации для тех, кто нарушит запрет на создание искусственного интеллекта.
Исследователи нейронных сетей давно предупреждали о возможных последствиях создания искусственного интеллекта. Но лучшие умы только сейчас задумываются о потенциальной катастрофе, которую они пытаются отсрочить всего на шесть месяцев.
Фото: sb-smart.ru
О светлом будущем заботятся политики, о светлом прошлом – историки, о светлом настоящем – журналисты.