Почему Стивен Хокинг ошибается насчет роботов-убийц
Когда такие гении, как Илон Маск и Стивен Хокинг, призывают что-то запретить, трудно не согласиться. Когда они требуют запретить роботов-убийц, еще труднее подвергать сомнению их суждения. Однако я собираюсь сказать, что они и тысячи их умных коллег ошибаются.
Чтобы внести ясность: я не согласен с сутью их предупреждения. Группа ученых и лидеров бизнеса заявила в открытом письме, что автономное оружие, которое «выбирает и поражает цели без вмешательства человека», осуществимо в течение многих лет, а не десятилетий. Это вызывает беспокойство, утверждают они, поскольку, хотя они могут сократить количество солдат-людей, которые должны рисковать своей жизнью в войнах, они также снижают «порог вступления в битву».
Программы для Windows, мобильные приложения, игры - ВСЁ БЕСПЛАТНО, в нашем закрытом телеграмм канале - Подписывайтесь:)
«Хотя против запрета трудно возражать, в конечном итоге он бесполезен: правительства нарушат его, как и ограничения на любой другой вредный аспект технологии».
«Ключевой вопрос для человечества сегодня заключается в том, стоит ли начинать глобальную гонку вооружений в области искусственного интеллекта или не допустить ее начала», — говорится в письме. «Если какая-либо крупная военная держава продолжит разработку оружия искусственного интеллекта, глобальная гонка вооружений практически неизбежна, и конечная точка этой технологической траектории очевидна: автономное оружие станет автоматом Калашникова завтрашнего дня. В отличие от ядерного оружия, оно не требует дорогостоящего или труднодоступного сырья, поэтому оно станет повсеместным и дешевым для массового производства всеми значительными военными державами».
Действительно, это ужасно, и хотя трудно возражать против запрета, в конечном итоге он бесполезен: правительства нарушат его, как и ограничения на любой другой вредный аспект технологии. Мировые военные просто не могут прекратить разработку автоматического оружия из-за открытого письма Хокинга и его друзей или даже из-за международного права.
«Тех, кто публиковал статьи о слежке, считали чудаками. Теперь мы знаем, что их «паранойя» не была чем-то подобным».
Возьмем, к примеру, слежку. В течение многих лет, даже десятилетий, исследователи безопасности, технические эксперты и даже журналисты указывали на неизбежность использования массовых интернет-коммуникаций для слежки за гражданами. Тех, кто публиковал статьи о шпионских программах, таких как «Эшелон», считали чудаками. Теперь разоблачения Сноудена доказывают, что их «паранойя» не была чем-то подобным.
В конце концов, письмо лишь смягчает собственную вину исследователей за то, что технология, которую они создают, будет использована в аморальных целях – когда это неизбежно произойдет, они смогут, по крайней мере, сказать, что пытались нас предупредить. Как отмечается в письме: «Подобно тому, как большинство химиков и биологов не заинтересованы в создании химического или биологического оружия, большинство исследователей ИИ не заинтересованы в создании ИИ-оружия — и не хотят, чтобы другие запятнали их область, делая это, потенциально создавая серьезную угрозу». общественная реакция на ИИ, которая ограничивает его будущие социальные выгоды».
Так чего же этот гораздо более глупый человек ожидает от этих умных людей? Они сделали первый шаг, определив проблему и поговорив о ней, вместо того, чтобы оставлять дебаты в закрытых помещениях, заполненных военными стратегами. Но сейчас пришло время пойти дальше и принять меры, а не ждать, пока ИИ-бойцы станут обычным явлением.
Программы для Windows, мобильные приложения, игры - ВСЁ БЕСПЛАТНО, в нашем закрытом телеграмм канале - Подписывайтесь:)
«Вы достаточно умны, чтобы увидеть проблему до того, как она начнет топать по всему миру, убивая людей, но делайте больше, чем просто пишите письма».
Опять же, обратимся к слежке: после разоблачений Сноудена исследователи удвоили усилия по созданию инструментов для борьбы с слежкой. Сейчас существуют смартфоны, предназначенные для блокировки слежки, такие как Blackphone; больше веб-сайтов перешли на полное шифрование; и даже технология, лежащая в основе Tor, совершенствуется, а это означает, что вскоре она может стать фактическим методом серфинга, позволяющим избежать слежки. Если бы мы только увидели ценность такой работы раньше.
Итак, подписавшим это письмо: вы достаточно умны, чтобы увидеть проблему до того, как она начнет топтаться по всему миру, убивая людей, но делайте больше, чем просто пишите письма. Придумайте системы защиты от роботов-убийц, чтобы автоматические дроны не нападали на живые существа, или чтобы мы могли защитить себя от таких ужасов. Мой крошечный мозг даже не может себе представить, что это значит, но я отчаянно хочу, чтобы такая защита существовала – потому что я почти уверен, что потребуется нечто большее, чем просто резко сформулированное письмо, чтобы помешать оружию ИИ убивать людей.
ЧИТАЙТЕ ДАЛЬШЕ: Роботы-убийцы – восстанут ли они?
Изображения: Кампания по прекращению роботов-убийц и Lwp Коммункацио используется в соответствии с Creative Commons