Компания OpenAI признала, что сканирует диалоги пользователей ChatGPT и в некоторых случаях передаёт их в полицию.
Эта мера призвана предотвратить реальные преступления, но вызывает серьёзные вопросы о конфиденциальности и границах вмешательства ИИ в личную жизнь, сообщает focus.ua
На фоне трагических случаев, когда люди в уязвимом состоянии использовали ChatGPT для советов по уходу из жизни, OpenAI опубликовала разъяснение своей политики безопасности. Компания заявила, что теперь будет передавать диалоги в правоохранительные органы, если обнаружит в них «неминуемую угрозу причинения физического вреда другим». Однако упоминания намерений навредить себе, похоже, не подпадают под это правило.
Специальная команда модераторов будет анализировать подозрительные чаты, и если угроза преступления будет сочтена реальной, информацию передадут в полицию. При этом OpenAI подчеркивает, что случаи, связанные с самоповреждением или суицидальными мыслями, никуда передаваться не будут «из соображений уважения к частной жизни».
Однако это решение выглядит противоречивым и вызывает много вопросов. Во-первых, неясно, по каким именно критериям система будет определять «неминуемую угрозу». Во-вторых, признание факта мониторинга и передачи данных третьим лицам идет вразрез с заявлениями компании о защите конфиденциальности пользователей, особенно на фоне судебных исков, где OpenAI отказывается предоставлять логи чатов, ссылаясь на приватность.
Глава OpenAI Сэм Альтман ранее признавал, что общение с ChatGPT не обладает той же конфиденциальностью, что разговор с врачом или адвокатом. Разъяснение новой политики делает это очевидным: любой диалог с ИИ-ассистентом может быть прочитан и, в определенных случаях, использован против вас. Это важный сигнал для всех, кто доверяет свои личные мысли и проблемы чат-ботам.