Google работает над алгоритмом, который распознает и ранжирует картинки

На модерации Отложенный Google анонсировал технологию, которая может стать PageRank`ом для изображений в интернете. На международной конференции World Wide Web в Пекине исследователи компании представили алгоритм, в основе которого ПО для распознавания изображений плюс технология ранжирования и определения веса картинок. Новая технология получила название VisualRank.

В основе исследовательской работы «PageRank for Product Image Search» (PageRank для поиска изображения товаров) подмножества изображений, которые каталогизирует крупная поисковая система, затрачивая на это большие вычислительные мощности для анализа и сравнения изображений. Сделать это для всех проиндексированных поисковой системой картинок не представляется возможным, утверждают разработчики. Какое количество изображений систематизировал Google, не раскрывается. Но словам представителей компании, их поиск по картинкам Google Image Search самый исчерпывающий на сегодняшний день.

Несмотря на то, что поиск картинок становится все популярней, и уже есть определенный прогресс в области автоматического распознавания лиц в изображениях, в целом проблема остается нерешенной.
Результаты поиска генерируются, прежде всего, на основе текста, относящегося к картинке.

Напомним, Google не является пионером в данном направлении, в 2006 году калифорнийская компания Riya запустила сервис Like.com, осуществляющий поиск товаров в онлайн-магазинах по изображениям. Поисковик использует технологию распознавания изображений: он выделяет на фотографии людей и предметы и создает цифровую метку, которая описывает контент снимка.

В рунете инновационную технологию индексирования и поиска изображений в интернете предлагает компания IMAGIUM. Разработанный ими алгоритм принимает в качестве поискового запроса изображение. Система осуществляет поиск по образцу (фрагменту), с учетом заданных допустимых геометрических искажений, IMAGIUM ищет похожие изображения, рассказывал представитель компании на конференции РИТ-2008.