Почему не стоит делиться личными данными с ChatGPT или другими чат-ботами на основе искусственного интеллекта - «Последние новости»
Нельзя отрицать, что ChatGPT и другие чат-боты на основе искусственного интеллекта станут отличными собеседниками, способными общаться с вами практически на любые темы.
Их разговорные способности также могут быть чрезвычайно убедительными; если они заставили вас чувствовать себя в безопасности, делясь своими личными данными, вы не одиноки. Но — новость! — вы не разговариваете со своим тостером. Все, что вы говорите чат-боту ИИ, может быть сохранено на сервере и всплывать позже, факт, который делает их изначально рискованными.
Проблема возникает из-за того, как компании, управляющие большими языковыми моделями (LLM) и связанными с ними чат-ботами, используют ваши персональные данные — по сути, для обучения более эффективных ботов.
Возьмем фильм «Терминатор 2: Судный день» в качестве примера того, как учится LLM. В фильме будущий лидер человеческого сопротивления Skynet, ребенок Джон Коннор, обучает Терминатора, которого играет Арнольд Шварценеггер, личным лозунгам, таким как «Hasta la vista baby», пытаясь сделать его более человечным.
Достаточно сказать, что он запоминает эти фразы и использует их в самые неподходящие моменты — что довольно забавно.
Менее забавно то, как ваши данные собираются и используются компаниями для обновления и обучения собственных моделей искусственного интеллекта, чтобы они стали более человечными.
Условия и положения OpenAI описывают его право делать это, когда вы используете его платформу. В них говорится: «Мы можем использовать данные, которые вы нам предоставляете, для улучшения наших моделей». Именно поэтому ChatGPT регистрирует все — да, все — что вы ему говорите. То есть, если только вы не используете новую функцию конфиденциальности чат-бота, которая позволяет вам включить настройку, чтобы предотвратить сохранение истории чата.
Если вы этого не сделаете, то такие данные, как ваша финансовая информация, пароли, домашний адрес, номер телефона или то, что вы ели на завтрак, являются честной игрой — если вы поделитесь этими данными. Он также хранит любые файлы, которые вы загружаете, и любые отзывы, которые вы ему даете.
В Условиях и положениях ChatGPT также указано, что чат-бот может «агрегировать или деидентифицировать Персональные данные и использовать агрегированную информацию для анализа эффективности наших Услуг». Это небольшое дополнение, но оно открывает возможность того, что что-то, чему научился чат-бот, впоследствии станет доступно общественности — действительно тревожная мысль.
Справедливости ради, крайне маловероятно, что какая-либо компания, использующая чат-бота на основе искусственного интеллекта, намерена злоупотреблять личной информацией, которую они хранят. В последние годы OpenAI выпустила заявления, призванные успокоить пользователей ChatGPT относительно сбора и использования личных данных.
Например, в феврале этого года, когда Управление по защите данных Италии (DPA) обвинило компанию OpenAI в нарушении положений Общего регламента по защите данных (GDPR) Европейского союза, компания заявила BBC: «Мы хотим, чтобы наш ИИ узнавал о мире, а не о частных лицах».
А затем: «Мы активно работаем над сокращением объема персональных данных при обучении наших систем, таких как ChatGPT, которые также отклоняют запросы на предоставление личной или конфиденциальной информации о людях».
Это может быть правдой, но это не гарантирует, что данные пользователя защищены от утечек. Одна из таких утечек произошла в мае 2023 года, когда хакеры использовали уязвимость в библиотеке Redis ChatGPT, что дало им доступ к сохраненным персональным данным из историй чатов.
Утечка личной информации включала имена, номера социального страхования, должности, адреса электронной почты, номера телефонов и даже профили в социальных сетях. OpenAI отреагировала, исправив уязвимость, но это было слабым утешением для примерно 101 000 пользователей, чьи данные уже были украдены.
И не только у людей возникают проблемы с конфиденциальностью в отношении чат-ботов на основе искусственного интеллекта. На самом деле, компании тоже изо всех сил стараются сохранить конфиденциальные данные компании в тайне на фоне громких утечек данных. Одна из таких утечек была обнаружена Samsung, когда выяснилось, что ее собственные инженеры случайно загрузили конфиденциальный исходный код в ChatGPT.
В ответ на это в мае 2023 года компания запретила использование ChatGPT и других генеративных чат-ботов ИИ в рабочих целях. Такие компании, как Bank of America, Citigroup и JPMorgan, с тех пор последовали ее примеру.
В последнее время растет понимание опасности чат-ботов на основе искусственного интеллекта на уровне правительства и промышленности, что является многообещающим признаком ужесточения безопасности данных.
Большой шаг вперед произошел 30 октября прошлого года, когда президент США Джо Байден подписал Указ о безопасной, надежной и заслуживающей доверия разработке и использовании искусственного интеллекта — документ, в котором изложены основные принципы, регулирующие использование ИИ в США.
Один из приоритетных пунктов гласит, что «системы ИИ должны уважать конфиденциальность и защищать персональные данные». Однако пока неясно, как именно это будет реализовано, и это может быть открыто для интерпретации компаниями, занимающимися ИИ.
Немного противоречит этому тот факт, что в США до сих пор нет четкого закона, гласящего, что обучение ИИ на данных без согласия владельца является нарушением авторских прав. Вместо этого это можно считать добросовестным использованием — а это значит, что нет ничего надежного для защиты прав потребителей.
Пока мы не получим что-то более надежное, как личности, наша лучшая линия обороны — просто не делиться слишком много. Относясь к чат-боту ИИ как к алгоритму, которым он является, а не как к надежному другу, независимо от того, насколько он хвалит вашу прическу или выбор одежды, вы, по крайней мере, можете держать под контролем то, что он знает о вас с вашей стороны.
Их разговорные способности также могут быть чрезвычайно убедительными; если они заставили вас чувствовать себя в безопасности, делясь своими личными данными, вы не одиноки. Но — новость! — вы не разговариваете со своим тостером. Все, что вы говорите чат-боту ИИ, может быть сохранено на сервере и всплывать позже, факт, который делает их изначально рискованными.
Почему чат-боты так рискованны?
Проблема возникает из-за того, как компании, управляющие большими языковыми моделями (LLM) и связанными с ними чат-ботами, используют ваши персональные данные — по сути, для обучения более эффективных ботов.
Возьмем фильм «Терминатор 2: Судный день» в качестве примера того, как учится LLM. В фильме будущий лидер человеческого сопротивления Skynet, ребенок Джон Коннор, обучает Терминатора, которого играет Арнольд Шварценеггер, личным лозунгам, таким как «Hasta la vista baby», пытаясь сделать его более человечным.
Достаточно сказать, что он запоминает эти фразы и использует их в самые неподходящие моменты — что довольно забавно.
Менее забавно то, как ваши данные собираются и используются компаниями для обновления и обучения собственных моделей искусственного интеллекта, чтобы они стали более человечными.
Условия и положения OpenAI описывают его право делать это, когда вы используете его платформу. В них говорится: «Мы можем использовать данные, которые вы нам предоставляете, для улучшения наших моделей». Именно поэтому ChatGPT регистрирует все — да, все — что вы ему говорите. То есть, если только вы не используете новую функцию конфиденциальности чат-бота, которая позволяет вам включить настройку, чтобы предотвратить сохранение истории чата.
Если вы этого не сделаете, то такие данные, как ваша финансовая информация, пароли, домашний адрес, номер телефона или то, что вы ели на завтрак, являются честной игрой — если вы поделитесь этими данными. Он также хранит любые файлы, которые вы загружаете, и любые отзывы, которые вы ему даете.
В Условиях и положениях ChatGPT также указано, что чат-бот может «агрегировать или деидентифицировать Персональные данные и использовать агрегированную информацию для анализа эффективности наших Услуг». Это небольшое дополнение, но оно открывает возможность того, что что-то, чему научился чат-бот, впоследствии станет доступно общественности — действительно тревожная мысль.
Почему вас это должно волновать?
Справедливости ради, крайне маловероятно, что какая-либо компания, использующая чат-бота на основе искусственного интеллекта, намерена злоупотреблять личной информацией, которую они хранят. В последние годы OpenAI выпустила заявления, призванные успокоить пользователей ChatGPT относительно сбора и использования личных данных.
Например, в феврале этого года, когда Управление по защите данных Италии (DPA) обвинило компанию OpenAI в нарушении положений Общего регламента по защите данных (GDPR) Европейского союза, компания заявила BBC: «Мы хотим, чтобы наш ИИ узнавал о мире, а не о частных лицах».
А затем: «Мы активно работаем над сокращением объема персональных данных при обучении наших систем, таких как ChatGPT, которые также отклоняют запросы на предоставление личной или конфиденциальной информации о людях».
Это может быть правдой, но это не гарантирует, что данные пользователя защищены от утечек. Одна из таких утечек произошла в мае 2023 года, когда хакеры использовали уязвимость в библиотеке Redis ChatGPT, что дало им доступ к сохраненным персональным данным из историй чатов.
Утечка личной информации включала имена, номера социального страхования, должности, адреса электронной почты, номера телефонов и даже профили в социальных сетях. OpenAI отреагировала, исправив уязвимость, но это было слабым утешением для примерно 101 000 пользователей, чьи данные уже были украдены.
И не только у людей возникают проблемы с конфиденциальностью в отношении чат-ботов на основе искусственного интеллекта. На самом деле, компании тоже изо всех сил стараются сохранить конфиденциальные данные компании в тайне на фоне громких утечек данных. Одна из таких утечек была обнаружена Samsung, когда выяснилось, что ее собственные инженеры случайно загрузили конфиденциальный исходный код в ChatGPT.
В ответ на это в мае 2023 года компания запретила использование ChatGPT и других генеративных чат-ботов ИИ в рабочих целях. Такие компании, как Bank of America, Citigroup и JPMorgan, с тех пор последовали ее примеру.
Осведомленность растет, но это только начало
В последнее время растет понимание опасности чат-ботов на основе искусственного интеллекта на уровне правительства и промышленности, что является многообещающим признаком ужесточения безопасности данных.
Большой шаг вперед произошел 30 октября прошлого года, когда президент США Джо Байден подписал Указ о безопасной, надежной и заслуживающей доверия разработке и использовании искусственного интеллекта — документ, в котором изложены основные принципы, регулирующие использование ИИ в США.
Один из приоритетных пунктов гласит, что «системы ИИ должны уважать конфиденциальность и защищать персональные данные». Однако пока неясно, как именно это будет реализовано, и это может быть открыто для интерпретации компаниями, занимающимися ИИ.
Немного противоречит этому тот факт, что в США до сих пор нет четкого закона, гласящего, что обучение ИИ на данных без согласия владельца является нарушением авторских прав. Вместо этого это можно считать добросовестным использованием — а это значит, что нет ничего надежного для защиты прав потребителей.
Пока мы не получим что-то более надежное, как личности, наша лучшая линия обороны — просто не делиться слишком много. Относясь к чат-боту ИИ как к алгоритму, которым он является, а не как к надежному другу, независимо от того, насколько он хвалит вашу прическу или выбор одежды, вы, по крайней мере, можете держать под контролем то, что он знает о вас с вашей стороны.
Похожие новости
Оставьте свой комментарий
Похожие новости
Читайте также
Интернет Технологии
Ицхак Герцог обсудил с главой разработчика ChatGPT Сэмом Альтманом развитие сферы ИИ в Израиле - «Технологии»
Интернет Технологии
Хакеры устроили атаку на ChatGPT «за поддержку Израиля» - «Технологии»
Интернет Технологии
Скарлет Йоханссон обвинила главу OpenAI Сэма Альтмана в использовании ее голоса в ChatGPT - «Технологии»
Интернет Технологии
Хасид запустил «кошерную альтернативу» искусственному интеллекту ChatGPT - «Технологии»
Интернет Технологии
NVIDIA построит Израилю суперкомпьютер, который войдет в мировой топ-10 - «Технологии»
Интернет Технологии
NVIDIA объявила о запуске суперкомпьютера Israel-1 - «Технологии»
Интернет Технологии
Microsoft анонсирует ключ AI для ПК с Windows 11 - «Последние новости»
Интернет Технологии
UNESCO считает, что технологии искусственного интеллекта способствуют распространению ложной информации о Холокосте - «Технологии»