ChatGPT как ассистент психотерапевта: машины и теория разума

24.05.2024

ИИ постепенно учится распознавать эмоции и угадывать наши намерения.

Если вы когда-либо изливали душу ChatGPT — это чат-бот, который работает на модели искусственного интеллекта GPT (Generative Pre-trained Transformer), разработанной компанией OpenAI. Модель обучена на большом объёме текстовых данных и предназначена для генерации человекоподобных ответов на заданные вопросы или фразы.<br /> <br /> ChatGPT всегда старается понять контекст вопроса и сгенерировать подходящий ответ. Чат-бот способен генерировать текст в различных стилях и тематиках, может использоваться в различных сферах и областях для облегчения рутинных или даже творческих задач, выполняемых человеком.<br /> <br /> Несмотря на всю «крутость» платформы, ChatGPT может давать неточные или неправильные ответы. Также нейросеть может проявлять предвзятость или генерировать контент, который не соответствует этическим нормам. Поэтому ChatGPT необходимо использовать с осторожностью и критически оценивать любую получаемую информацию." data-html="true" data-original-title="ChatGPT" >ChatGPT, делясь своими жизненными невзгодами, то ответы чатбота, вероятно, казались вам вполне утешительными. Новейшие модели искусственного интеллекта поражают своей способностью генерировать человекоподобные отклики, создающие ощущение понимания и сопереживания. Их «эмпатичность» уже привлекла пристальное внимание психотерапевтического сообщества, и многие специалисты размышляют о том, смогут ли ИИ-системы ассистировать в терапевтических сессиях.

В основе этого феномена лежит «теория разума» — фундаментальный когнитивный навык, позволяющий людям распознавать и интерпретировать мысли, намерения, эмоциональные состояния других. Благодаря теории разума мы можем представить себя на месте собеседника, уловить подтекст его слов, определить, иронизирует ли он, лжет или чем-то расстроен.

В новаторском исследовании , опубликованном в авторитетном журнале Nature Human Behavior, ученые из Университетского медицинского центра Гамбург-Эппендорф решили выяснить, способны ли ИИ-модели, лежащие в основе таких систем, как ChatGPT, подобно людям разгадывать переживания других людей.

Для этого исследователи использовали серию хорошо зарекомендованных в психологии тестов, специально разработанных для оценки различных аспектов теории разума у человека. Эти тесты включали задания на понимание ложных убеждений, распознавание иронии, подтекста, обнаружение социальных оплошностей (ситуаций, когда кто-то говорит или делает что-то неуместное) и другие.

В экспериментах ученые сравнили две передовые семьи языковых моделей ИИ, включая GPT серию от OpenAI с моделью GPT-4, лежащей в основе ChatGPT, а также LLaMA 2 от Meta*, с более чем 1900 людьми. Испытуемым, как людям, так и ИИ-системам, предлагалось оценить ментальные установки вымышленных персонажей на основе текстовых описаний социальных ситуаций.

Результаты оказались поразительными и продемонстрировали серьезные успехи современных языковых моделей в имитации некоторых аспектов. Так, в тесте на распознавание иронии GPT-4 показала результаты на уровне, даже превосходящем человеческий. А в задании на обнаружение социальных оплошностей модель LLaMA 2 превзошла как среднестатистического человека, так и GPT-4, продемонстрировав почти стопроцентную точность.

В ряде тестовых сценариев искусственный интеллект все же проявлял слабость, указывающую на ограниченность его «понимания» контекстной составляющей ситуации. К примеру, в задании на выявление ложных убеждений, где требовалось предугадать, где вымышленный персонаж станет искать предмет после его перемещения, алгоритмы зачастую давали неверные ответы даже при незначительном изменении условий задачи.

Также ИИ-системы не всегда успешно справлялись с распознаванием социальных оплошностей в ситуациях, корректная интерпретация которых требовала учета более широкого социального контекста и общепринятых норм поведения, явно не объясненных в постановке задачи.

По мнению авторов исследования, ошибки ИИ в таких случаях могут объясняться тем, что современные языковые модели не обладают глубинным пониманием социальных конвенций и не воссоздают в полной мере когнитивные процессы людей, а лишь имитируют некоторые их проявления на основе статистики.

Тем не менее, ученые подчеркнули важность применения разнообразных психологических и нейрокогнитивных тестов при изучении внутренних механизмов работы ИИ. Такие инструменты помогают лучше понять алгоритмы «мышления» этих систем и выявить их сильные и слабые стороны, что, в свою очередь, позволит создавать более безопасные, надежные и этичные решения.

В заключение исследователи отметили: на данный момент полноценная "искусственная теория разума", полностью имитирующая человеческие когнитивные способности, остается лишь идеей. Но результаты работы показывают, что эта идея может стать реальностью в ближайшем будущем благодаря непрекращающемуся прогрессу. Развитие более совершенных систем с продвинутыми социально-когнитивными возможностями может открыть новые горизонты в разных сферах, включая психотерапию и коммуникацию человека с машиной.

Добавить комментарий

Your email address will not be published.

Предыдущая история

Функция Recall от Microsoft — шаг к тотальному наблюдению?

Next Story

UDP флуд сдал позиции: IP фрагментированный флуд – новый король DDoS-атак

Последние из Новшество

Порт Эльга, Якутия и Хабаровский край заключили трехстороннее соглашение на ВЭФ — PrimaMedia.ru

05.09.2024
Трехстороннее соглашение о взаимодействии при реализации инвестиционного проекта "Строительство Тихоокеанской железной дороги" между Правительством Хабаровского края, Правительством Республики Саха (Якутия) и ООО "Порт Эльга"

Amazon и Facebook открещиваются от «Active Listening»: что на самом деле происходит?

03.09.2024
Техгиганты отрицают участие в программе сбора голосовых данных. Медиаконгломерат Cox Media Group разработал инструмент для таргетированной рекламы, вызывающий серьезные опасения относительно конфиденциальности пользователей. Согласно
Перейти кTop