ИИ научили принимать моральные решения, как люди
Я люблю хорошие мысленные эксперименты просто потому, что они заставляют нас с дискомфортом смотреть на нашу этику и моральные суждения. Глядя на 1,3 миллиона человек, принявших участие в проекте «Моральная машина» Массачусетского технологического института в прошлом году, я не одинок.
«Машина нравственности» изменила проблему троллейбусов в XXI веке, посадив участников на место водителя автономного транспортного средства, чтобы увидеть, что они будут делать, столкнувшись со сложной моральной дилеммой. Вы бы сбили пару кроссовок вместо пары детей? Или вы бы ударились о бетонную стену, чтобы спасти беременную женщину, преступника или ребенка? Именно такие ужасные вопросы задавались участникам. Теперь исследователи создали ИИ на основе этих данных, научив его самому предсказуемо моральному поступку человека.
Программы для Windows, мобильные приложения, игры - ВСЁ БЕСПЛАТНО, в нашем закрытом телеграмм канале - Подписывайтесь:)
ИИ был создан в результате сотрудничества доцента Карнеги-Меллона Ариэля Прокаччиа и одного из исследователей моральной машины Массачусетского технологического института Ияда Рахвана. Как описано в статье, искусственный интеллект предназначен для оценки ситуаций, в которых беспилотный автомобиль вынужден кого-то убить, и выбирает того же человека, что и средний участник «Моральной машины». Хотя это интересно, но поднимается вопрос о том, как именно машина может решить что-то настолько сложное, имеющее сотни миллионов вариантов, используя всего лишь восемнадцать миллионов нечетных голосов, поданных 1,3 миллионами ответов, использующих Интернет.
«Мы не говорим, что система готова к развертыванию, но это доказательство концепции, показывающее, что демократия может помочь решить грандиозную проблему этических решений при создании ИИ», — сказал Прокачча.
Тем не менее, обучение компьютера принимать этические решения на основе краудсорсингового опроса само по себе выявляет некоторые моральные и этические проблемы.
«Краудсорсинговая мораль не делает ИИ этичным», — сказал профессор Джеймс Гриммельманн из Корнельской юридической школы. Схема. «Это делает ИИ этичным или неэтичным точно так же, как большое количество людей являются этичными или неэтичными».
Программы для Windows, мобильные приложения, игры - ВСЁ БЕСПЛАТНО, в нашем закрытом телеграмм канале - Подписывайтесь:)
Хотя люди хотят верить, что они поступают правильно, когда дело доходит до дела, по замыслу или в результате эволюции, люди — эгоистичные существа. Например, Рахван обнаружил, что в предыдущих исследованиях, несмотря на то, что многие люди согласились с тем, что беспилотный автомобиль должен жертвовать своими пассажирами, столкнувшись с проблемой троллейбуса, они, по понятным причинам, предпочли бы не ездить в самих автомобилях. В конце концов, у миллиона краудсорсинговых пользователей, участвовавших в исследовании, тоже есть свои собственные предубеждения и предубеждения – во-первых, им досталась привилегия иметь нефильтрованный доступ в Интернет.
Не говоря уже о том, что такого рода проблемы редки и вряд ли возникнут по сравнению с реальной моральной проблемой, такой как более медленная езда для экономии ископаемого топлива.
ИИ появился только этим летом, Германия опубликовала первые в мире этические рекомендации для искусственного интеллекта беспилотных транспортных средств, заявив, что беспилотные автомобили должны отдавать приоритет жизни людей над жизнью животных, одновременно ограничивая их в принятии решений на основе возраста, пола и инвалидности. . Вместо этого другие организации предложили разместить в машине эгоистичный циферблат, чтобы пассажир мог сам решать, что ему делать.
Таким образом, хотя краудсорсинговая мораль приближает нас к беспилотным автомобилям, пригодным для потребительского использования, это не самое идеальное решение. Но существует ли когда-нибудь идеальное решение, когда дело касается морали? Просто взглянуть на то, что ИИ считает моралью, довольно страшно: он предпочитает сбить бездомного, а не того, кто таковым не является. Это морально? Я позволю тебе решить.