Может ли ИИ сопереживать лучше чем люди? Компании уже тестируют

ии

Что произойдет, когда машины научатся распознавать человеческие эмоции и имитировать их? Возможно, недалеко то время, когда нам придется ответить на этот вопрос.

Эксперты уже учат искусственный интеллект проявлять эмоции, пишет The Wall Street Journal. Это мощные модели на базе искусственного интеллекта, которые обучаются на огромном количестве голосовых, текстовых и видеоразговоров и теперь достаточно умны, чтобы улавливать перепады настроения человека, интерпретировать и оценивать их. 

Крупные компании, такие как американский провайдер телевидения Cox Communications, используют искусственный интеллект, чтобы контролировать работу сотрудников своих колл-центров, а затем оценивать их эффективность. 

ИИ также проникает в медицинский сектор. Lyssn.io, например, тестирует инструмент, который сможет оценить психологическое состояние пациента с эффективностью опытного специалиста. Идея в том, что в какой-то момент машина может отреагировать, т.е. провести терапевтический сеанс. Недалек тот момент, когда клиент позвонит в банк, интернет-провайдеру или курьеру и не сможет определить, разговаривает ли он с человеком или с машиной. 

Эти изменения, несомненно, пойдут на пользу бизнесу. Вместо найма людей колл-центры смогут использовать умных ботов. Терапевтические машины могут помочь при нехватке специалистов и быть полезны людям с проблемами. 

«Искусственный интеллект можно обучить, используя знания лучших психологов», — говорит Грин Лорд, генеральный директор empathic.ai, компании, которая работает в области создания эмпатии в ИИ.

Однако важным вопросом здесь является этический вопрос. Может ли машина отвечать за лечение эмоциональных состояний? Может ли искусственная эмпатия заменить настоящую эмпатию? А что будет с человеческим сочувствием, если вместо человека его покажет машина? 

Вопрос о том, сможет ли искусственный интеллект полностью заменить человеческое общение, остается спорным. Но даже сейчас несомненно, что он может продемонстрировать так называемую когнитивная эмпатия, т.е. распознавать поведение, которому он обучен, и реагировать на него, говорит специалист по биоэтике Калифорнийского университета Джоди Колперн. Но это сильно отличается от эмоционального сопереживания. Другими словами, компьютерная программа не может ни испытывать истинного сострадания, ни по-настоящему заботиться. 

«Сочувствие действительно ценно, если врач может что-то почувствовать, слушая пациента», — говорит Колперн. 

Такое чувство может существовать только у человека, но этот недостаток не мешает развитию ИИ в рассматриваемом направлении. 

По мнению сторонников этой идеи, искусственный интеллект был бы очень полезен для определенных видов терапии. Например, поведенческая терапия для отказа от курения, употребления наркотиков, расстройств пищевого поведения, тревоги и депрессии. 

Уже проводились эксперименты, проверяющие уровень эмпатии при работе с пациентами со стороны реальных терапевтов и ИИ. Говорят, что после вмешательства искусственного интеллекта реакции становятся более адресными и более эффективными для пациента, хотя не совсем понятно, как именно оценивается уровень эмпатии. 

Именно поэтому один из авторов исследования — Тим Атольф — специалист по информатике Вашингтонского университета утверждает, что искусственный интеллект и человек могут более эффективно работать вместе. 

Однако все это пока из области вероятностей и предположений. Даже если бы прийти к однозначному выводу, что ИИ помогает в психологической терапии, его внедрение было бы не таким простым. Ведь речь идет о медицинской деятельности, т.е. тот, который строго регламентирован. Для того чтобы такие изменения произошли, потребуются поправки в законодательство. И им будут предшествовать соответствующие дебаты о том, насколько этичным будет такой шаг. 

Кроме того, какой человек захочет, чтобы его психические проблемы решались чем-то бездушным? Подобные попытки уже предпринимались — предложить услугу онлайн-терапии, но не раскрывая, что советы дает ИИ. Это только разозлит пользователей. 

И кто может гарантировать, что советы по здоровью, данные искусственным интеллектом, полезны и их следует выполнять? 

ИИ, вероятно, будет полезен в сфере управления персоналом, поскольку сможет оценить уровень вовлеченности во время собеседования.

Технологическая компания Humanly, например, предлагает продукт на основе искусственного интеллекта, который оценивает участников таких разговоров, делает заметки об их поведении и анализирует поведение сторон.

Компания обнаружила, что ее рекрутеры меньше участвовали в диалоге при собеседовании с женщинами. После выявления проблемы количество трудоустроенных женщин увеличилось на 8%. 

Фонд здравоохранения из Флориды заявляет, что нанимает инспекторов для контроля за работой сотрудников колл-центра. Одна из задач — проверить, проявляют ли те, кто непосредственно контактирует с клиентами, достаточное сочувствие к их проблемам. Но этих инспекторов мало, и им удается подслушать минимальное количество разговоров. Поэтому в процесс входит ИИ, обученный следить за произнесением определенных фраз, демонстрирующих заботу о клиенте. 

Компания признает, что на момент оценки ИИ можно положиться на 70%. Считается, что только человек может адекватно анализировать (100%). С другой стороны, искусственный интеллект гораздо продуктивнее. Если люди могут просматривать 100–200 разговоров в день, ИИ может обрабатывать 10 000. 

Однако мы должны понимать, что у ИИ есть свои ограничения, — говорит Шерри Тёркл, профессор социальных наук Массачусетского технологического института. 

«Что произойдет, если машины не смогут измерить такие чувства, как боль или любовь?» — спрашивает она, указывая на серьезную опасность: если человек доверяет неправильной оценке технологии конкретного состояния, эта ошибка может превратиться в стандартную. 

Добавить комментарий