Три правила работы с чат-ботами — от инженера Google
Инженер Google, работающий в команде ИИ-безопасности Chrome, рассказал, какие данные он никогда не доверит чат-ботам и какие привычки считает обязательными для защиты приватности.
Инженер Google, работающий в команде ИИ-безопасности Chrome, рассказал, какие данные он никогда не доверит чат-ботам и какие привычки считает обязательными для защиты приватности.
Инженер Google, работающий в команде ИИ-безопасности Chrome, рассказал, какие данные он никогда не доверит чат-ботам и какие привычки считает обязательными для защиты приватности.
31-летний Харш Варшни в интервью Business Insider рассказал, что активно использует ИИ в повседневной работе: для исследований, заметок, поиска и кодинга, но именно опыт в сфере приватности и киберзащиты заставляет его относиться к таким инструментам максимально осторожно.
По словам Варшни, главное правило — воспринимать публичный чат с ИИ как «открытку», которую потенциально может увидеть кто угодно. Он советует не вводить в чат-боты данные банковских карт, номера документов, домашний адрес, медицинскую информацию и другие персональные идентификаторы.
Риски, по его словам, связаны не только с возможными утечками и взломами, но и с тем, что в некоторых режимах данные из диалогов могут использоваться для обучения моделей, а это теоретически повышает вероятность «утечки через обучение», когда модель запоминает чувствительную информацию и воспроизводит ее в чужих запросах.
Второй принцип — понимать, «в какой комнате вы говорите»: публичный бот или корпоративный (enterprise) инструмент. Варшни сравнивает это с разговором в переполненной кофейне против закрытой встречи в офисе. Он отмечает, что сотрудники компаний иногда случайно раскрывают внутреннюю информацию, используя обычные чат-боты, поэтому рабочие проекты — особенно неанонсированные или связанные с патентами — он обсуждает только в корпоративных версиях, где диалоги обычно не предназначены для обучения моделей. При этом он подчеркивает, что даже там старается минимизировать личные данные.
Третья привычка — регулярно удалять историю чатов, и в публичных, и в корпоративных сервисах. В качестве примера Варшни описал случай, когда корпоративный Gemini смог назвать его точный адрес: выяснилось, что он сам когда-то прислал его в тексте письма, а функция долгосрочной памяти сохранила этот фрагмент. Для запросов, которые он не хочет оставлять в памяти, он использует режим временного чата — аналог инкогнито, где история не сохраняется.
Наконец, Варшни рекомендует выбирать крупные и известные ИИ-сервисы, у которых обычно понятнее политика приватности и больше защитных механизмов. Он также советует проверять настройки, связанные с использованием переписок для улучшения модели, и при необходимости отключать такую опцию. В итоге, по его мнению, ИИ действительно становится незаменимым помощником, но пользоваться им стоит так, чтобы не превращать удобство в риск для данных и идентичности.



Релоцировались? Теперь вы можете комментировать без верификации аккаунта.