Компания «Яндекс» представила первые результаты расследования утечки почти 45 Гбайт исходных кодов её проектов, которая произошла на прошлой неделе. Компания извинилась за случившееся, снова подтвердила подлинность утекших данных и рассказала, какие проблемы благодаря инциденту удалось выявить: начиная от тайных функций «Алисы» и заканчивая использованием «костылей» и расистских слов в коде.
«Яндекс» отметил, что опубликованные исходные коды действительно взяты из внутреннего репозитория компании, но соответствуют решениям из устаревшей версии репозитория. Другими словами, данные исходные коды отличаются от тех, которые используются сервисами «Яндекса» сейчас.
Наиболее пугающе выглядит признание «Яндекса», что в утекшем коде нашёлся фрагмент, который скрытно включает микрофон устройства с голосовым ассистентом «Алиса». Компания заверяет, что это тестовая версия алгоритма, и публичной она не была. Однако существует как минимум возможность включения такой функции на любом, в том числе пользовательском устройстве.
В заявлении компании сказано: «Опубликованные фрагменты кода содержат в том числе и тестовые алгоритмы, которые использовались только внутри "Яндекса" для проверки корректности работы сервисов. Например, для улучшения качества активации ассистента и уменьшения количества ложных срабатываний в бета-версии для сотрудников применяется настройка, которая включает микрофон устройства на несколько секунд в случайный момент без упоминания Алисы».
Ещё «Яндекс» сообщила, что благодаря инциденту выявила ряд нарушений её политик. Например, в коде нашлись контактные данные некоторых партнёров, в том числе водителей: контакты и номера водительских удостоверений передавались из одного таксопарка в другой. В сервисе «Яндекс Лавке» обнаружилась возможность ручной настройки рекомендаций любых товаров без добавления пометки о том, что данные рекомендации являются рекламными. А в сервисах Такси и Еда у отдельных групп пользователей оказалась приоритетная поддержка.
Ещё выяснилось, что разработчики «Яндекса» грешили использованием «костылей» — временных неоптимальных решений — для изменения логики работы сервисов вместо алгоритмов. Через такие временные решения исправляли отдельные проблемы в системе, отвечающей за дополнительные элементы поисковой выдачи, и регулировали настройки поиска по картинкам и видео.
Наконец, компания призналась, что «некоторые части кода содержали слова, которые никак не влияли на работу сервисов, но были сами по себе оскорбительны для людей разных рас и национальностей». Речь идёт об использовании расистских слов в коде.
Компания отметила, что теперь изменит подход к разработке своих продуктов таким образом, чтобы сократить использование «костылей». Ещё компания пообещала сформировать новые стандарты и принципы технологической этики, и исправит фрагменты кода, которые будут им противоречить. Ещё было отмечено, что внутренняя среда разработки останется открытой и сохранится единый репозиторий. Также часть данных, которые не имеют отношения к алгоритмам и настройкам сервисов, получат дополнительную защиту.
Источник: 3DNews