Этот инцидент подчеркивает непредвиденные последствия обучения ИИ на пользовательском контенте, особенно, если говорить о более "темных" частях интернета, того же форума Reddit, где часто можно встретить шуточные и вредные советы, но ИИ воспринимает их буквально. Интересно, что ИИ Google не может дать точные ответы даже о собственных продуктах, в чем вы можете убедиться в источнике.
Хотя другие модели ИИ, такие как Perplexity.AI и ChatGPT, предлагают разумные советы, ошибки Google вызывают вопросы о точности и надежности контента, созданного ИИ, пишет редактор The Verge.
А ведь компания после первых случаев обещала всё достаточно скоро исправить. Пока что не вышло.