Три правила работы с чат-ботами — от инженера Google

Инженер Google, работающий в команде ИИ-безопасности Chrome, рассказал, какие данные он никогда не доверит чат-ботам и какие привычки считает обязательными для защиты приватности.

Оставить комментарий

31-летний Харш Варшни в интервью Business Insider рассказал, что активно использует ИИ в повседневной работе: для исследований, заметок, поиска и кодинга, но именно опыт в сфере приватности и киберзащиты заставляет его относиться к таким инструментам максимально осторожно.

По словам Варшни, главное правило — воспринимать публичный чат с ИИ как «открытку», которую потенциально может увидеть кто угодно. Он советует не вводить в чат-боты данные банковских карт, номера документов, домашний адрес, медицинскую информацию и другие персональные идентификаторы.

Риски, по его словам, связаны не только с возможными утечками и взломами, но и с тем, что в некоторых режимах данные из диалогов могут использоваться для обучения моделей, а это теоретически повышает вероятность «утечки через обучение», когда модель запоминает чувствительную информацию и воспроизводит ее в чужих запросах.

Второй принцип — понимать, «в какой комнате вы говорите»: публичный бот или корпоративный (enterprise) инструмент. Варшни сравнивает это с разговором в переполненной кофейне против закрытой встречи в офисе. Он отмечает, что сотрудники компаний иногда случайно раскрывают внутреннюю информацию, используя обычные чат-боты, поэтому рабочие проекты — особенно неанонсированные или связанные с патентами — он обсуждает только в корпоративных версиях, где диалоги обычно не предназначены для обучения моделей. При этом он подчеркивает, что даже там старается минимизировать личные данные.

Третья привычка — регулярно удалять историю чатов, и в публичных, и в корпоративных сервисах. В качестве примера Варшни описал случай, когда корпоративный Gemini смог назвать его точный адрес: выяснилось, что он сам когда-то прислал его в тексте письма, а функция долгосрочной памяти сохранила этот фрагмент. Для запросов, которые он не хочет оставлять в памяти, он использует режим временного чата — аналог инкогнито, где история не сохраняется.

Наконец, Варшни рекомендует выбирать крупные и известные ИИ-сервисы, у которых обычно понятнее политика приватности и больше защитных механизмов. Он также советует проверять настройки, связанные с использованием переписок для улучшения модели, и при необходимости отключать такую опцию. В итоге, по его мнению, ИИ действительно становится незаменимым помощником, но пользоваться им стоит так, чтобы не превращать удобство в риск для данных и идентичности.

«Крёстная мать ИИ»: диплом никому не нужен при найме — смотрят на другое
По теме
«Крёстная мать ИИ»: диплом никому не нужен при найме — смотрят на другое
OpenAI спешно обновила ChatGPT после объявления «кода красного»
По теме
OpenAI спешно обновила ChatGPT после объявления «кода красного»
Топ OpenAI назвал три сферы, которые ИИ автоматизирует первыми
По теме
Топ OpenAI назвал три сферы, которые ИИ автоматизирует первыми

Читать на dev.by