5 проблем, которые искусственный интеллект должен решить ради нашего блага

Как правило, закон и правительство действуют медленно и обдуманно. Это действительно удобно для важных вещей, которые вам нужно сделать правильно, но проблема в том, что прорывные технологии имеют тенденцию развиваться гораздо быстрее. Это достаточно плохо, если прорывная технология, о которой вы говорите, — это (скажем) экономика совместного использования, но это более серьезно, когда это то, что Илон Маск однажды назвал «потенциально более опасен, чем ядерное оружие».

Эта штука — искусственный интеллект. И хотя трудно почувствовать чрезмерную угрозу, когда ваше Amazon Echo не понимает, что вы говорите «Играй в REM» в десятый раз подряд, угроза – потенциально – реальна. Умные люди, такие как Билл Гейтс, Илон Маск и Стивен Хокинг, не испугались бы того, о чем не стоит хотя бы думать.

Программы для Windows, мобильные приложения, игры - ВСЁ БЕСПЛАТНО, в нашем закрытом телеграмм канале - Подписывайтесь:)

Но давайте на мгновение предположим, что худший сценарий «HAL 9000» не осуществится, и ИИ в целом является положительной вещью для людей. Есть еще ряд проблем, которые технология должна решить и которые заслуживают серьезного обсуждения.

1. Из людей получаются паршивые учителя

5_проблем_ai_нужно_преодолеть_-_1

Идея о том, что мы создадим идеальный, беспристрастный ИИ, — утопический, но нереалистичный идеал. Проблема в том, что, хотя ИИ — это чистый холст, он учится у граждан общества, в котором уже пронизаны предубеждения и предубеждения, как буквы сквозь каменную палку.

Очевидно, вы можете увидеть это на примере того, как интернет-троллям удалось заставить чат-бота Microsoft начать поддерживать Адольфа Гитлера, но это довольно поверхностная иллюстрация, учитывая, что бот просто повторял слова без контекста. Более гнусный и тонкий пример: ИИ, который судил конкурс красоты и в подавляющем большинстве голосовал за белую кожуили как другой ИИ обнаружил, что черные имена менее «приятны», чем белые.

Эти ИИ не пришли к своим выводам, потому что сторонники превосходства белой расы были правы с самого начала – они сделали это потому, что данные, которые мы передаем машинам глубокого обучения, формируются нашим обществом, со всеми его несовершенствами, привнесенными в него. Для действительно объективного искусственного интеллекта нам нужен способ отфильтровать эти предубеждения – но как это исправить, не привнося при этом еще больше предубеждений?

2. Глубокое обучение часто предполагает нарушение конфиденциальности.

Чтобы учиться, искусственному интеллекту нужны данные, и в большом количестве. Даже при самых благих намерениях (даже не думая о тех, у кого плохие намерения) эти данные могут быть потеряны и потенциально использованы против вас, даже при наличии мер безопасности. Это очень важно, когда у ИИ есть доступ ко всему о вас: от вашего распорядка дня, отслеживаемого смартфоном, до ваших личных медицинских записей.

Законы могут регулировать это до некоторой степени.но это, в свою очередь, влияет на процесс, потому что чем больше данных может усвоить ИИ, тем эффективнее он будет. Это неловкая уловка-22.

3. Что мы будем делать без работы?

5_проблем_ai_нужно_преодолеть_-_2

По мере совершенствования искусственного интеллекта увеличивается вероятность того, что он сможет выполнять работу людей, а поскольку роботы не получают зарплату, это не составляет труда для бизнеса. Некоторые эксперты полагают, что к 2050 году людям останется не так много работы.

Что мы будем делать, когда рабочих мест не хватит? Если неравенство является проблемой прямо сейчас, оно будет в несколько сотен раз хуже, если мы доберемся до стадии, когда количество безработных превысит количество получающих зарплату.

Это огромная проблема, и в настоящее время существует два решения, ни одно из которых не соответствует нынешнему состоянию нашего общества. Первый вариант, одобренный Илоном Маском, — это своего рода универсальный базовый доход (ББД). Другими словами, государство платит каждому гражданину базовую заработную плату просто за то, что он существует. С политической точки зрения сейчас это довольно токсично, общественность постоянно заявляет, что наши нынешние системы льгот слишком щедры. В настоящее время в Великобритании UBI используется только при поддержке Партии зеленых – и на референдуме в Швейцарии в прошлом году этот вопрос был отклонен с 77% против 23%..

Так какова альтернатива? Билл Гейтс выступает за введение налога на роботов для компаний, которые заменяют работников искусственным интеллектом. Эта идея, по-видимому, направлена ​​либо на то, чтобы лишить стимулов этот процесс, либо на финансирование более щедрых систем социальной защиты для людей, которые упускают из виду этот процесс. Это тоже не идеальное решение – лозунг «нет налогообложения без представительстваВозможно, оно возникло в 1750-х годах, но оно звучит до сих пор.

И ни один из этих ответов не отвечает на более фундаментальную проблему: деньги или отсутствие денег, что люди будут делать со всем этим свободным временем?

Тем не менее, юристам какое-то время будет чем заняться. Во-первых, им нужно будет выяснить…

4. На кого вы подаете в суд, если вас убивает робот?

5_проблем_ai_нужно_преодолеть_-_3

Даже без сценария конца света весьма вероятно, что ИИ прямо или косвенно станет причиной чьей-то смерти. Это может показаться пессимистичным, но возьмем пример беспилотных автомобилей: водитель автомобиля с искусственным интеллектом вполне может оказаться в ситуации, когда ему придется выбирать между убийством или ранением пассажира и пешеходов.

Программы для Windows, мобильные приложения, игры - ВСЁ БЕСПЛАТНО, в нашем закрытом телеграмм канале - Подписывайтесь:)

Если вас убьет врач или водитель, совершенно понятно, за кем должны гоняться ваши скорбящие родственники, но с искусственным интеллектом это совсем другое дело. Кто в конечном итоге несет ответственность? Это пользователь программного обеспечения? Это человек, который разработал ИИ? Это человек, который обучил его данным, необходимым для функционирования? Это продавец, который вам его продал? Правительство вообще за его легализацию?

Это становится еще более сложным с так называемый «черный ящик» обучениягде «мыслительный процесс» ИИ скрыт от глаз и невозможно расшифровать. Если мы не сможем установить, как ИИ пришел к такому решению, то возложить вину еще труднее.

Что подводит нас к…

5. Как мы сохраняем контроль?

5_проблем_ai_нужно_преодолеть_-_4

Сейчас людям довольно легко оставаться на вершине ИИ – возможно, именно поэтому те, кто ближе всего к теме, начинают защищаться, когда обрисовываются кошмарные сценарии. Но второй искусственный интеллект перехитрил человека, и игра изменилась навсегда.

Как Тим Урбан пишет о Подожди, но почему: «Шимпанзе может познакомиться с тем, что такое человек и что такое небоскреб, но он никогда не сможет понять, что небоскреб построили люди. В его мире все столь огромное является частью природы, и точка, и он не только не может построить небоскреб, но и не может понять, что кто-то может построить небоскреб. Это результат небольшой разницы в качестве интеллекта.

«Мы никогда не сможем даже понять, что может делать (сверхразумный ИИ), даже если машина попытается объяснить это нам, не говоря уже о том, чтобы сделать это самостоятельно. Он может годами пытаться научить нас простейшему пониманию того, что он знает, и эта попытка окажется безнадежной».

Короче говоря, если мы не сможем понять не только то, что делает ИИ, но и почему он это делает, то надежды на то, что человечество сохранит контроль, будут весьма отдаленными.

Похожие записи

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *