БИШКЕК, 13 окт — Sputnik. Известный британский космолог Стивен Хокинг объяснил свое неприятие технологий искусственного интеллекта (ИИ) — по его мнению, сверхразумные машины будут смотреть на людей, как на расходный материал или муравьев, мешающих решению поставленной перед ними задачи.
Общаясь с пользователями портала Reddit, Хокинг подчеркнул, что он не считает подобные машины "злыми" существами, желающими уничтожить человечество из-за интеллектуального превосходства. Скорее, они просто не будут замечать человечество.
"СМИ постоянно искажают мои слова. Главный риск развития ИИ заключается не в их злобе, а в компетенции. Сверхумный ИИ будет очень хорошо справляться с задачами, и если его и наши цели не будут совпадать, у нас возникнут огромные проблемы", — объясняет ученый.
В качестве примера Хокинг привел гипотетическую ситуацию, в которой мощный искусственный интеллект управляет работой или постройкой новой плотины ГЭС. Для такой машины в первую очередь будет важно то, как много энергии вырабатывает вверенная ей система, а судьбы людей не будут иметь для нее никакого значения.
"Среди нас мало таких, кто топчет муравейники и наступает на муравьев со злости, но представьте ситуацию — вы контролируете ГЭС, вырабатывающую электроэнергию. Если вам нужно поднять уровень воды и в результате этого один муравейник затопит, то проблемы утопающих насекомых вас вряд ли будут беспокоить. Давайте не ставить людей на место подобных муравьев", — продолжает космолог.
Хокинг предлагает решить эти ситуации двумя путями — замедлив разработку ИИ, переключившись на создание не "универсального", а узкоспециализированного искусственного разума, способного решать крайне ограниченный круг задач.