Futureoflife.org опубликовал письмо, призывающее остановить развитие искусственного интеллекта (ИИ). Документ подписали 1 123 главы международных компаний, работники промышленности, профессора университетов и неравнодушные граждане из разных стран. Среди подписавшихся — основатель компании Neuralink, генеральный директор Twitter миллиардер Илон Маск и соучредитель Apple Стив Возняк, пишет издание «Вокруг света».
Авторы послания считают, что в настоящее время ИИ достиг такого уровня развития, что успешно конкурирует с человеком в некоторых областях и поэтому представляет серьезную угрозу для человечества. Ученые в погоне за разработкой и внедрением все более мощных цифровых разумов, не заметили, как оказались в ситуации, когда они сами не в состоянии не предсказывать, не контролировать их действия.
«Должны ли мы развивать нечеловеческие умы, которые в конечном итоге могут превзойти, перехитрить и заменить устаревших нас? Стоит ли нам рисковать потерей контроля над нашей цивилизацией?» — спрашивают авторы сообщения.
Специалисты считают, что такие мощные системы ИИ можно разрабатывать только в том случае, если есть абсолютная уверенность в том, что будет получен положительный эффект, а риск может быть контролируем человеком. Авторитетные в мире науки и бизнеса люди, подписавшие послание, предлагают остановить подготовку более мощных систем, чем GPT-4, хотя бы на полгода. А за это время необходимо создать и внедрить протоколы безопасности, за выполнением которых должны будут следить внешние независимые эксперты.
Авторы настаивают, что новые мощные нейронные сети должны стать «более безопасными, точными, прозрачными, интерпретируемыми, последовательными, надежными, верными и заслуживающими доверия». Тем более что у человечества уже есть подобный опыт, когда были остановлены опасные исследования по клонированию человека и евгенике. Теперь пришло время задуматься о последствиях бесконтрольного развития науки.
Фото: pixabay
Ведущий автор рубрик «здоровье», «общество», «наука». Считаю, что журналист должен тщательно проверять информацию. А если ошибка все же произошла, нужно ее признать и извиниться.