Яндекс начал индексировать Google Документы с паролями
Внимание всем! Особеннно, для владельцев сайтов!!!Яндекс начал индексировать Google Документы в числе которых есть и документы с паролями, личными данными и т.д.

Ссылка на поисковый запрос
Рекомендуется всем проверить настройки доступа своих Google Документов.
UPD: 05.07.2018 1:10 МСК. Только что стало известно, что Яндекс исправил проблему.
UPD: 05.07.2018 1:30 МСК.
Замечено что в поисковиках Google, Mail.ru, Bing и т.д так же можно наткнутся на открытые документы.
UPD: 05.07.2018 1:45 МСК.
На своей странице под одной из записей Вконтакте был опубликован кометарий от Яндекса следующего содержания
Яндекс индексирует всю открытую часть интернета — те страницы, которые доступны при переходе по ссылкам без ввода логина и пароля. Страницы, индексация которых запрещена администратором сайта в файле robots.txt, Яндекс не индексирует, даже если они находятся в открытой части интернета.
Наша служба безопасности связывается сейчас с коллегами из Google, чтобы обратить их внимание на то, что в этих файлах может оказаться приватная информация.
Исследование продолжила и добавлю от себя.
Гугл тоже прикрыл эту лавочку.
Поисковики Bing и duckduckgo.com, продолжают индексировать по запросу
пароли site:https://docs.google.com/
Что уже не открывается в Яндексе и Гугеле, прекрасно открывается в названных поисковиках.



И это, я хорошо не искала, ткнула в первое попавшееся, на первой странице поиска.
Нет ничего удивительного в том, что приватные ссылки утекают. Хром шлёт все открываемые урлы в Гугл, Яндексбраузер в Яндекс, Edge - мелкомяхким. Там и индексируют. А что и куда шлют расширения для браузеров одним им, только и известно. Плюс, корявая защита сайтов, которые обязаны прятать ссылки с приватной инфой, чтоб они были доступны только определённым учёткам и недоступны по прямой ссылке и роботам поисковиков тоже недоступны.
Защита а-ля, типо доступно только тем, кто знает ссылку" на приватные документы с паролями - это не защита.
Комментарии
С переходом CMS на виртуальные ссылки (когда URL не показывает на физический каталог/документ) это лечится занесением робота в чёрный список с возвратом пустых документов. Это несколько портит метрику, но нефиг роботами копаться там, где написано что не надо. Более того надо во всех таких местах генерировать robots.txt с запретом.
Так что большинство проблем из-за технологической отсталости, а меньшинство из-за желания контрразведчиков знать о содержимом сокрытого.
Жалко, шо это не хабр, разложили бы по полочкам. А то бы и послали, такие же малоразбирающиеся.)))
В реалах - почта не может быть закрытой. НЕ ДАДУТ!