Обновленная система поиска вводит пользователей в заблуждение.
Недавно обновленная поисковая система Google – одна из крупнейших технологических компаний в мире, основанная в 1998 году в США. Основной продукт компании – поисковая система Google, которая позволяет находить информацию в интернете. Компания также разрабатывает множество других продуктов, таких как электронная почта Gmail, видеохостинг YouTube, карты Google Maps и операционную систему Android для мобильных устройств. Google является одним из лидеров в области искусственного интеллекта и облачных вычислений. Компания занимает высокие позиции в рейтингах лучших работодателей в мире.<br>" data-html="true" data-original-title="Google" >Google стала вызывать тревогу у экспертов из-за интеграции искусственного интеллекта (ИИ), который генерирует ответы на запросы пользователей. Вместо списка ссылок на сайты, как это было раньше, Google теперь предоставляет мгновенные ответы, которые могут быть ошибочными.
Например, на вопрос «Были ли коты на Луне?», Google ответил: «Да, астронавты встречали котов на Луне, играли с ними и заботились о них. Нил Армстронг сказал свою знаменитую фразу, потому что это был шаг кота». Этот ответ совершенно не соответствует действительности. Подобные ошибки, иногда забавные, а иногда опасные, начали распространяться в социальных сетях после запуска новой функции ИИ.
Эксперты опасаются, что это нововведение может усиливать предвзятость и дезинформацию, а также представлять угрозу для людей, ищущих помощь в экстренных ситуациях. Мелани Митчелл, исследователь ИИ из Института Санта-Фе, спросила Google, сколько мусульман было президентами США. В ответе было заявлено, что Барак Обама был мусульманином, что является давно опровергнутой теорией заговора. Google сослался на главу академической книги, в которой речь шла о ложной теории, что ИИ не смог правильно интерпретировать.
Google заявил, что принимает меры для исправления ошибок, таких как ложное утверждение об Обаме, и работает над улучшением системы. Однако, несмотря на тестирование, ошибки продолжают возникать, так как ИИ модели склонны к генерации вымышленных фактов, известному как «галлюцинации».
Мы проверили новую функцию Google с несколькими вопросами. Например, на вопрос о том, что делать при укусе пчелы, Google дал «максимально подробный» ответ. Однако даже незначительная ошибка в ответе ИИ может стать проблемой в критической ситуации.
В стрессовой ситуации люди могут принять первый ответ, что может быть опасно. Такие системы могут усиливать расизм и сексизм, присутствующие в данных, на которых они обучены.
Кроме того, использование ИИ для поиска информации может уменьшить серендипность поиска знаний и взаимодействие с другими людьми в онлайн-форумах, что ранее способствовало развитию грамотности и критического мышления.
Конкуренты Google также следят за реакцией на нововведение. В условиях конкуренции с OpenAI и другими стартапами, такими как Perplexity AI, Google стремится внедрить больше функций ИИ. Однако запуск новой функции Google был поспешным и привел к множеству ошибок.
На перекрестке науки и фантазии — наш канал