Google пытается вручную удалять вредные и странные ответы своего ИИ-поисковика

На модерации Отложенный

За последние дни в соцсетях появилось большое количество примеров того, как запущенный недавно ИИ-поисковик Google даёт странные ответы на пользовательские запросы: от рекомендации добавить клей в пиццу до предложения съесть камни. На этом фоне Google вручную отключает функцию обзоров с помощью ИИ для определённых запросов, поэтому многие странные ответы поисковика исчезают в скором времени.

Эта ситуация выглядит странно, поскольку Google уже год тестирует генерируемые ИИ обзоры. Бета-версия функции Search Generative Experience была запущена в мае прошлого года и гендиректор Google Сундар Пичаи (Sundar Pichai) говорил, что за это время она обработало более миллиарда запросов. Вместе с этим Пичаи заявил, что за период тестирования удалось на 80 % снизить стоимость предоставления ответов с помощью ИИ благодаря «аппаратным, инженерным и техническим прорывам». Похоже, что эта оптимизация была проведена слишком рано, ещё до того, как технология была готова к коммерческому использованию.

Google продолжает настаивать на том, что ИИ-поисковик компании в большинстве случаев предоставляет пользователям «высококачественную информацию»«Многие из примеров, которые мы видели, связаны с нестандартными запросами, и мы также видели примеры, которые были сфальсифицированы или которые нам не удалось воспроизвести», — сообщил представитель Google.

Он также подтвердил, что компания предпринимает меры по удалению сгенерированных ИИ обзоров по определённым запросам, «где это необходимо в соответствии с нашей политикой в отношении контента». Примеры неудачных ответов ИИ становятся основой для разработки улучшений для поисковика, некоторые из которых «уже начали внедряться».


Эксперт по искусственному интеллекту и профессор Нью-Йоркского университета Гэри Маркус (Gary Markus) считает, что многие ИИ-компании «продают мечты» о том, что точность созданных ими алгоритмов увеличится с 80 % до 100 %. По словам Маркуса, достигнуть точности в 80 % относительно просто, поскольку для этого необходимо обучить алгоритм на большом объёме уже существующих данных. Однако сделать алгоритм ещё точнее на 20 % является чрезвычайно сложной задачей. Специалист отметил, что алгоритм должен «рассуждать», насколько правдоподобна та или иная информация и источники, т.е. вести себя подобно тому, как это делал бы человек, проверяющий факты.