Крупные японские компании и банки, в том числе SoftBank Corp, Hitachi, Mizuho Financial Group, MUFG Bank и Sumitomo Mitsui Banking начали ограничивать использование интерактивных сервисов искусственного интеллекта, таких как ChatGPT. У руководства компаний возникли опасения из-за риска утечек информации.
“Не вводите информацию позволяющую вас идентифицировать и содержащую конфиденциальные данные”, – такое предупреждение получили сотрудники SoftBank в феврале 2023 года в связи с использования ChatGPT и других бизнес-приложений на базе ИИ.
Хотя корпоративные регламенты по информационной безопасности и использованию облачных сервисов, к которым относятся интеллектуальные чат-боты, в SoftBank существуют уже давно, они будут обновлены в свете повышенного внимания к теме интерактивного искусственного интеллекта. SoftBank планирует установить правила, определяющие для каких бизнес-операций можно использовать эту технологию.
Интеллектуальные чат-боты делают работу специалистов более эффективной и повышают производительность сотрудников, например при написании деловых писем или подготовки выступлений. Однако при этом возникает риск утечки конфиденциальных данных. В пользовательских соглашениях большинства интерактивных ИИ-ботов оговаривается, что в тех случаях, когда сервис используется бесплатно, пользовательские данные могут использоваться, для дообучения нейросетевых моделей. Так улучшается качество работы бота.
“В этом случае принципиально отсутствие контроля над данными после их ввода в окно чата. Любая информация из интернета, будь то блог или обзор нового продукта может быть использована чат-ботом в его ответах. Аналогично с вводом запросов: конфиденциальные данные, написанные в окне чата, могут быть использованы как обучающие данные для модели и есть вероятность что они “всплывут”, если кто-то сделает соответствующий запрос”, – говорит генеральный директор компании Digital Consulting Solutions Александр Скоморохин. В этом случае основным риском является человеческий фактор: пользователи могут случайно ввести конфиденциальную информацию в ChatGPT, думая, что это безопасный канал связи. Однако, по мнению Скоморохина, есть вероятность, что к этой информации могут получить доступ третьи лица и этот риск не теоретический. “Ряд исследователей из компаний и университетов (Apple, Google, Гарвардский и Стэнфордский университеты), обнаружили, что так называемые “атаки на извлечение данных для обучения” могут успешно восстановить дословные текстовые последовательности”, – отмечает руководитель Digital Consulting Solutions.