Может ли ИИ действительно быть эмоционально разумным?
Действительно ли эмоциональный ИИ станет новым рубежом для искусственного интеллекта?
В Мечтают ли андроиды об электрических овцахАвтор Филип К. Дик ставит под сомнение идею о том, что искусственный мозг когда-либо сможет понимать эмоции. Возможно ли, чтобы машина действительно когда-либо имела эмоциональную связь с человеком, если она сама не может сопереживать или выражать эмоции?
Программы для Windows, мобильные приложения, игры - ВСЁ БЕСПЛАТНО, в нашем закрытом телеграмм канале - Подписывайтесь:)
То, что в 1968 году вполне могло быть научной фантастикой, теперь является темой для дискуссий среди многих представителей индустрии искусственного интеллекта. По мере продвижения вперед развития искусственного интеллекта многие считают, что эмоциональный интеллект — это то, что будет следующим для отрасли. Это ступенька, которая превращает виртуального помощника из простого помощника по вызовам и ответам в нечто большее – компаньона, помощника, нечто большее, чем просто робот.
«Представление о том, что машины на самом деле обладают эмоциями, кажется из области научной фантастики»
Но существует ли на самом деле такая вещь, как эмоциональный ИИ, и можно ли его использовать для передачи эмоций искусственному разуму? Эту тему обсуждали на Группа фотобоксовПанельная дискуссия Tech Week, организованная Альфрсобственный редакционный директор Виктория Вулластон.
«Представление о том, что машины на самом деле обладают эмоциями, кажется областью научной фантастики», — утверждает консультант по технологиям Хью Уильямс. «Если задуматься о входных сигналах, которые приводят к человеческим эмоциям, это довольно сложно… Эти эмоции генерируются путем обработки сотен миллионов датчиков в вашем теле. Это продукт человеческой деятельности.
«Кажется маловероятным, что мы сможем приблизиться к воспроизведению тех же результатов в машине – если вообще имеет смысл воспроизводить их в машине».
Итак, если эмоциональный ИИ не дает ИИ возможности использовать эмоции, то что же это?
Понимание эмоционального ИИ
Одно из понятий эмоционального ИИ — это простое действие, позволяющее создать впечатление, будто роботы и ИИ на самом деле обладают человеческими эмоциями, хотя на самом деле это не так. Это обман; заготовленные реакции на фиксированные ситуации, которые дают нам, людям, ощущение, что объект, с которым мы взаимодействуем, жив или способен понять нас.
Как объясняет технический руководитель Google Assistant Бехшад Бехзади, вы уже можете увидеть этот подход в Google Assistant. «Если Google Assistant отвечает что-то неправильно, люди выражают свое мнение, называя это глупостью, и он извиняется. Точно так же мы получаем много «спасибо», когда он делает то, что от него ожидают, и реагирует соответствующим образом».
ЧИТАЙТЕ ДАЛЬШЕ: Лондонская больница хочет заменить врачей ИИ
Придавая Google Assistant некоторый уровень индивидуальности, например, возможность извиняться за неправоту или выражать благодарность, когда его хвалят, люди чувствуют, что он действительно слушает. Он должен показать, что это не просто роботизированное устройство, а то, что люди хотят возвращаться и использовать снова и снова, даже если этот вежливый ответ не намного более продвинут, чем нажатие на дверной звонок и услышав звонок.
«Вместо того, чтобы люди пытались понять, как работать с машинами, мы должны заставить машины понимать людей»
«Вместо того, чтобы люди пытались понять, как работать с машинами, мы должны заставить машины понимать людей», — продолжает Бехзади. «Именно здесь эмоциональный ИИ может преодолеть этот разрыв. Когда машина может понимать эмоциональное состояние пользователя, это приводит к более естественным реакциям и полезным взаимодействиям».
Однако у эмоционального ИИ есть и другое применение. Вместо того, чтобы давать машинам эмоции для игры в качестве инструмента, убеждающего пользователей в том, что они понимают состояние человека, эмоциональное понимание может предоставить ИИ больше контекста для действий пользователя. Если он знает, что вы злитесь, он может выяснить, почему, исходя из ситуации, в которой вы находитесь. Аналогично, если происходит та же самая плохая ситуация, но пользователь выглядит веселым, возможно, к проблеме следует подойти по-другому.
«Мы можем сделать гораздо больше, чтобы распознавать различные эмоциональные состояния (наших клиентов) и внедрять эти правила в наши продукты», — призналась Клэр Гилмартин, генеральный директор The Trainline. «Эмоциональное состояние может повлиять на вашу реакцию, когда ваш поезд задерживается. Либо ты опоздаешь домой, либо просто немного опоздаешь на своем прекрасном путешествии на поезде от озера Комо до Милана».
ЧИТАЙТЕ ДАЛЬШЕ: Trainline будет использовать искусственный интеллект для отправки персонализированных оповещений о сбоях в работе
Людям нужны сервисы, которые смогут записывать и реагировать на то, что вы думаете и чувствуете. Использование эмоционального ИИ в сервисе означает, что вы получите нужные ответы и результаты в нужный момент, вместо того, чтобы самостоятельно фильтровать шум.
Эмоционально тревожно?
Если концепция эмоционально осознающего ИИ вызывает у вас дрожь по спине, то это просто потому, что мы живем в мире, где виртуальные помощники все еще не являются нормой. Однако, как и во всем, со временем это изменится.
«Когда поколение вырастет, и эти устройства (виртуальные помощники) станут частью их повседневной жизни, взаимодействие с ними станет гораздо более естественным», — утверждает Бехзади. В течение следующих десяти лет или около того он предвидит ситуацию, когда «у вас всегда будет помощник, с которым вы сможете поговорить. Что-то, чему вы можете довериться, но также и то, что может вам помочь.
«Сегодня люди доверяют свои устройства лишь изредка, но в будущем это станет гораздо более распространенным явлением». Например, Amazon Echo для детей. советует детям говорить со взрослыми о проблемах, выходящих за рамки его компетенции, например, об издевательствах.
По мнению Бехзади, рост эмоционального ИИ означает, что такие естественные дискуссии могут происходить. Хотя мир «Она» Спайка Джонза немного пугает, он может быть правдоподобным — место, где между человеком и машиной может возникнуть эмоциональная связь.
Мы считаем ИИ проблемной областью отчасти потому, что в будущем ему придется нести ответственность за множество моральных решений. Уильямс, однако, считает, что по мере того, как молодое поколение будет лучше понимать, как работает ИИ и какую роль он играет в нашей повседневной жизни, мы увидим, что в игру вступает более широкий круг творческих влияний.
ЧИТАЙТЕ ДАЛЬШЕ: Этот ИИ может видеть сквозь стены и отслеживать ваши движения
В настоящее время принятие критических решений ИИ определяется группой программистов и их моральным компасом. Хотя эта область начинает диверсифицироваться, это, безусловно, пространство, в котором доминируют белые мужчины, и вряд ли всеобъемлющие точки зрения на то, как ИИ может беспристрастно ориентироваться в мире. Со временем, полагает Уильямс, ситуация изменится.
Программы для Windows, мобильные приложения, игры - ВСЁ БЕСПЛАТНО, в нашем закрытом телеграмм канале - Подписывайтесь:)
«Нам понадобятся люди разного происхождения, чтобы помочь нам создать ИИ для человечества в целом»
«Через пару лет мы увидим, как люди выходят из университетов социологами и психологами, но с пониманием того, на что способны технологии», — объясняет он. «Это позволит им достичь более глубокого уровня понимания, чем те, кто был до них.
«В будущем мы найдем этих людей, которые будут сидеть рядом с учеными-компьютерщиками и помогать нам решать проблемы, связанные с эмоционально чувствительным ИИ. Нам понадобятся другие люди с разным опытом и навыками внутри организаций, чтобы помочь нам создать ИИ для человечества в целом».
Эмоционально опасен
Диверсификация диапазона понимания ИИ с культурной и социальной точки зрения, очевидно, является фантастикой. Но есть и другая сторона эмоционального ИИ, которая меня немного беспокоит – и на нее невозможно дать удовлетворительного ответа, несмотря на самые благие намерения комиссии: что происходит, когда вы вооружаете ИИ способностью понимать эмоции, но, что особенно важно, не чувствовать их? ? Создание социопатического ИИ может стать катастрофой, ожидающей своего часа.
«Нам необходимо серьезно оценить влияние того, что мы делаем с технологиями», — заявляет Ричард Орм, технический директор Photobox Group. «Настоящий вопрос, который нам нужно задать, заключается не в том, можем ли мы что-то сделать, а в том, стоит ли нам вообще что-то делать».
«Нам нужно серьезно взглянуть на влияние того, что мы делаем с технологиями»
По общему признанию, подход Photobox Group к эмоционально интеллектуальному искусственному интеллекту не совсем устрашающий на уровне Skynet, он просто помогает клиентам быстро создавать запоминающиеся индивидуальные фотоальбомы. Но комиссия считает, что понимание его влияния на клиентов, а также более широкого значения приложений эмоционального ИИ имеет решающее значение, независимо от того, над чем вы работаете.
ЧИТАЙТЕ ДАЛЬШЕ: Встречайте Нормана, «первого в мире искусственного интеллекта-психопата»
«Все начинается с понимания влияния (эмоционального ИИ на людей) и того, как вы измеряете это влияние», — продолжает Орм. «Реальность такова, что мы, возможно, и не создаем по-настоящему эмоционально интеллектуальные машины, но их можно спроектировать так, чтобы они реагировали определенным образом, и оказывать определенное воздействие на людей, с которыми они взаимодействуют».
Взгляды Орма на ответственное использование эмоционального ИИ разделяют и другие участники дискуссии. Например, Гилмартин считает, что технологические компании, имеющие доступ к этой технологии, такие как The Trainline, Google или Photobox Group, несут этическую и моральную обязанность понимать, что именно они создают с помощью ИИ.
Будь то Google, использующий ИИ для организации мировой информации, или The Trainline, использующий эту технологию, чтобы сделать пассажиров счастливыми, каждое приложение и компания, обращающаяся к системам эмоционального ИИ, должны понимать, чего они действительно хотят достичь.
«В конечном счете, — объяснил Гилмартин, — за тем, что мы делаем с эмоциональным ИИ, должна стоять какая-то цель».