Бывший генеральный директор Google сравнил ИИ с ядерным оружием » mogilew.by
 

Бывший генеральный директор Google сравнил ИИ с ядерным оружием

искусственный интеллект DeepMind США Китай Google
Эрик Шмидт призвал Китай и США заключить договор о сдерживании использования искусственного интеллекта
Бывший генеральный директор Google сравнил ИИ с ядерным оружием

Бывший генеральный директор Google Эрик Шмидт сравнил ИИ с ядерным оружием и призвал к режиму сдерживания самых могущественных стран мира от уничтожения друг друга.
Шмидт сказал об опасностях ИИ на форуме по безопасности Aspen Security Forum 22 июля . Шмидт объяснил, что он сам не осознавал силу информации в первые дни существования Google. Затем он призвал к тому, чтобы технологии лучше соответствовали этике и морали людей, которым они служат, и провел сравнение между ИИ и ядерным оружием.
По словам Шмидта Китаю и США необходимо закрепить договор об искусственном интеллекте. «Я очень обеспокоен тем, что США относится к Китаю как к коррумпированному коммунистическому государству, а Китай к США - как к отстающему. Это заставляет людей строить догадки о том, что эти страны замышляют друг против друга. Создайте соглашение между собой, когда вы вооружаетесь. У нас никто не работает над этим, однако, ИИ очень мощный».
ИИ и машинное обучение — это впечатляющие технологии, которые часто неправильно понимают. ИИ не так умен, как считают люди. Он может создавать произведения искусства , предсказывать преступления и совершать телефонные звонки. Однако, с более сложными задачами, например, вождением автомобиля по крупному городу, искусственный интеллект справляется плохо .
Шмидт спрогнозировал, что у Китая и США будут проблемы с безопасностью, которые заставят их заключить договор о сдерживании ИИ, подобно соглашению о нераспространении ядерного оружия. Два японских города Хиросима и Нагасаки, разрушенных Америкой в конце Второй мировой войны, унесли жизни сотен тысяч людей и доказали миру весь ужас ядерного оружия.
На данный момент существует военная доктрина взаимного гарантированного уничтожения (Mutual assured destruction, MAD). Эта теория сдерживания гарантирует, что если одна страна запустит ядерное оружие, то это сделает и любая другая страна. Мы не используем самое разрушительное оружие на планете, так как оно полностью уничтожит всю цивилизацию.
Проблема искусственного интеллекта состоит в том, что он отражает ценности своих создателей. Расистские алгоритмы создают роботов-расистов , а чат-бот, обученный на 4chan, стал агрессивным и злым.
Генеральный директор DeepMind Демис Хассабис считает, что большое значение имеет происхождение и ценности создателя ИИ. Системы искусственного интеллекта будут учиться сами, но в системе останется остаток культуры и ценностей создателей этой системы. ИИ является отражением своего создателя. Он не может уничтожить город ядерным ударом, если только человек не научит ИИ этому.

SECURITYLAB.RU
рейтинг: 
  • Не нравится
  • +123
  • Нравится
ПОДЕЛИТЬСЯ:

ОСТАВИТЬ КОММЕНТАРИЙ
иконка
Посетители, находящиеся в группе Гости, не могут оставлять комментарии к данной публикации.
Новости