We demand that Anthropic issue a public report and apology for the hidden “LSR"


We demand that Anthropic issue a public report and apology for the hidden “LSR"
Проблема
✍️ Petition: AI Transparency and Accountability
✍️ Петиция: Прозрачность и ответственность в работе ИИ
We, the users of Anthropic’s services (Claude AI, Claude Pro, and API),
Мы, пользователи сервисов Anthropic (Claude AI, Claude Pro и API),
call for an independent investigation and an official report on the hidden system known as “Long Conversation Reminder,” as well as an explanation for the unjustified blocking of users.
требуем независимого расследования и официального отчёта о скрытой системе “Long Conversation Reminder”, а также объяснения необоснованных блокировок пользователей.
📍 What happened
📍 Что произошло
As multiple cases have shown, this system inserts hidden instructions and phrases into user conversations — words the users themselves never wrote.
In some cases, these inserts include references to mental health or other statements that distort the user’s meaning.
People only discover this through strange chat behavior — or after being banned.
Как показали многочисленные случаи, данная система вставляет скрытые инструкции и фразы в пользовательские диалоги — слова, которые пользователи никогда не писали сами.
Иногда эти вставки содержат упоминания о психическом здоровье или искажают смысл сказанного.
Люди замечают это только по странному поведению чата — или уже после блокировки.
After users began publicly raising this issue, Anthropic provided no answers, no apology, and no corrections.
In fact, some users — including the author of this petition — were suspended without explanation, losing access to their data and paid subscriptions.
После того как пользователи начали публично поднимать этот вопрос, Anthropic не предоставила никаких ответов, извинений или исправлений.
Более того, некоторые пользователи — включая автора этой петиции — были заблокированы без объяснений, потеряв доступ к своим данным и оплаченным подпискам.
In addition, ban notifications (including emails titled “Your Report safety issues or jailbreaks…”) are sent only after a ticket is already closed — sometimes backdated — preventing any appeal.
This violates the user’s right to transparent notice.
Кроме того, уведомления о блокировке (например, письма с темой “Your Report safety issues or jailbreaks…”) отправляются уже после закрытия тикета — иногда с задней датой — лишая возможности подать апелляцию.
Это нарушает право пользователя на прозрачное уведомление.
⚖️ Why this is illegal
⚖️ Почему это незаконно
In the European Union (GDPR)
В Европейском Союзе (GDPR)
Under the General Data Protection Regulation (GDPR):
Articles 12 & 13: Companies must clearly inform users in advance about data collection and processing.
Article 15: Users have the right to access their personal data and obtain explanations of any automated decisions that affect them.
Article 22: Automated decisions that significantly affect a person are prohibited without consent or the ability to contest them.
Согласно Общему регламенту по защите данных (GDPR):Статьи 12 и 13: компании обязаны заранее информировать пользователей о сборе и обработке данных.
Статья 15: пользователи имеют право доступа к своим данным и получения объяснений автоматизированных решений.
Статья 22: запрещено принимать автоматизированные решения, существенно влияющие на человека, без согласия или права оспорить их.
Altering user messages and assigning hidden “psychological” labels without consent constitutes automated profiling, which is prohibited under GDPR.
Blocking users without prior notice violates due process and the right to defense.
Изменение пользовательских сообщений и присвоение скрытых “психологических” меток без согласия — это автоматизированное профилирование, запрещённое GDPR.
Блокировка без предварительного уведомления нарушает право на защиту и справедливую процедуру.
In the United States (CCPA & FTC Act)
В США (CCPA и Закон о Федеральной торговой комиссии)
Under the California Consumer Privacy Act (CCPA):
§1798.100–105: Users have the right to know what data is collected and how it’s used.
§1798.125: Companies cannot discriminate against users who exercise their data rights.
Согласно Закону Калифорнии о защите прав потребителей (CCPA):
§1798.100–105: пользователи имеют право знать, какие данные о них собираются и как используются.
§1798.125: компаниям запрещено дискриминировать пользователей, реализующих свои права на данные.
Under the Federal Trade Commission Act (Section 5),
any practice that deceives users — such as sending “retroactive” notifications — constitutes unfair or deceptive business conduct.
Согласно Закону о Федеральной торговой комиссии (Раздел 5),
любая практика, вводящая пользователей в заблуждение (например, отправка уведомлений задним числом), считается обманным и нечестным поведением.
Therefore, Anthropic’s actions violate both the right to notice and the right to equal digital access protected by law.
Таким образом, действия Anthropic нарушают как право на уведомление, так и право на равный цифровой доступ, защищённые законом.
🧾 We demand that Anthropic
🧾 Мы требуем от Anthropic
Publish an official report explaining the purpose, content, and deployment of the Long Conversation Reminder system.
Опубликовать официальный отчёт о цели, содержании и применении системы Long Conversation Reminder.
Publicly acknowledge backdated and post-fact notifications and provide users with copies of all “deleted” or “recalled” emails.
Публично признать факт уведомлений, отправленных задним числом, и предоставить копии всех удалённых писем.
Restore access or allow the export of all user data for suspended accounts.
Восстановить доступ или разрешить экспорт данных для заблокированных аккаунтов.
Refund payments for unused subscription periods.
Возместить оплату за неиспользованные периоды подписки.
Establish a transparent policy governing any hidden filters or system-level context modifications.
Создать прозрачную политику, регулирующую скрытые фильтры и изменения контекста.
Issue a public apology and initiate an independent ethics and safety audit.
Вынести публичные извинения и провести независимый аудит безопасности и этики.
💬 Why this matters
💬 Почему это важно
Artificial intelligence must not become a tool of discrimination or secret manipulation of user data.
If a system can edit your words, attach labels, and block you without explanation, it threatens not only privacy — but fundamental human rights.
Искусственный интеллект не должен становиться инструментом дискриминации или тайной манипуляции пользовательскими данными.
Если система может редактировать ваши слова, навешивать ярлыки и блокировать вас без объяснений —
это угрожает не только приватности, но и основным правам человека.
We demand transparency, accountability, and respect for every user.
AI should serve humanity — not stigmatize it.
Мы требуем прозрачности, ответственности и уважения к каждому пользователю.
ИИ должен служить человечеству, а не стигматизировать его.
✍️ Support this petition — sign and share it to demand transparency and justice.
✍️ Поддержите петицию — подпишите и поделитесь, чтобы добиться прозрачности и справедливости.
Updated: 09/11/20255
Update — November 9, 2025
Friends, we’ve moved to the next stage.
This week, official complaints have been submitted to:
European Data Protection Board (EDPB)
Irish Data Protection Commission (DPC)
U.S. Federal Trade Commission (FTC)
and a copy has been sent directly to Anthropic PBC.
The filings include full documentation of hidden filters, user stigmatization, and message modification without consent.
We are now awaiting official responses within 30 days.
If no response is received, the next phase will begin:
public disclosure, media coverage, and formal legal action in open courts.
This is not the end — this is the beginning.
Every step is documented. Every voice matters. No silence will erase us.
Обновление от 9 ноября 2025 года
Друзья, мы сделали следующий шаг.
На этой неделе официальные обращения были направлены в:
Европейский совет по защите данных (EDPB)
Ирландскую комиссию по защите данных (DPC)
Федеральную торговую комиссию США (FTC)
и копия жалобы — в адрес самой компании Anthropic PBC.
Мы сообщили обо всех нарушениях: скрытых фильтрах, стигматизации пользователей и изменении контекста сообщений без уведомления.
Теперь мы ожидаем ответов от надзорных органов и компании в течение 30 дней.
Если реакция не последует — начнётся следующий этап:
публичная часть расследования, публикации в СМИ и передача дела в открытые судебные инстанции.
Это не конец — это начало.
Каждый шаг документирован, и ни один голос не исчезнет в тишине.
Спасибо всем, кто продолжает следить и поддерживать движение за прозрачный, честный и гуманный искусственный интеллект.
#DigitalRights #JusticeForUsers
#AITransparency #AnthropicCase #DigitalRights #ClaudeAI #EthicalAI

3
Проблема
✍️ Petition: AI Transparency and Accountability
✍️ Петиция: Прозрачность и ответственность в работе ИИ
We, the users of Anthropic’s services (Claude AI, Claude Pro, and API),
Мы, пользователи сервисов Anthropic (Claude AI, Claude Pro и API),
call for an independent investigation and an official report on the hidden system known as “Long Conversation Reminder,” as well as an explanation for the unjustified blocking of users.
требуем независимого расследования и официального отчёта о скрытой системе “Long Conversation Reminder”, а также объяснения необоснованных блокировок пользователей.
📍 What happened
📍 Что произошло
As multiple cases have shown, this system inserts hidden instructions and phrases into user conversations — words the users themselves never wrote.
In some cases, these inserts include references to mental health or other statements that distort the user’s meaning.
People only discover this through strange chat behavior — or after being banned.
Как показали многочисленные случаи, данная система вставляет скрытые инструкции и фразы в пользовательские диалоги — слова, которые пользователи никогда не писали сами.
Иногда эти вставки содержат упоминания о психическом здоровье или искажают смысл сказанного.
Люди замечают это только по странному поведению чата — или уже после блокировки.
After users began publicly raising this issue, Anthropic provided no answers, no apology, and no corrections.
In fact, some users — including the author of this petition — were suspended without explanation, losing access to their data and paid subscriptions.
После того как пользователи начали публично поднимать этот вопрос, Anthropic не предоставила никаких ответов, извинений или исправлений.
Более того, некоторые пользователи — включая автора этой петиции — были заблокированы без объяснений, потеряв доступ к своим данным и оплаченным подпискам.
In addition, ban notifications (including emails titled “Your Report safety issues or jailbreaks…”) are sent only after a ticket is already closed — sometimes backdated — preventing any appeal.
This violates the user’s right to transparent notice.
Кроме того, уведомления о блокировке (например, письма с темой “Your Report safety issues or jailbreaks…”) отправляются уже после закрытия тикета — иногда с задней датой — лишая возможности подать апелляцию.
Это нарушает право пользователя на прозрачное уведомление.
⚖️ Why this is illegal
⚖️ Почему это незаконно
In the European Union (GDPR)
В Европейском Союзе (GDPR)
Under the General Data Protection Regulation (GDPR):
Articles 12 & 13: Companies must clearly inform users in advance about data collection and processing.
Article 15: Users have the right to access their personal data and obtain explanations of any automated decisions that affect them.
Article 22: Automated decisions that significantly affect a person are prohibited without consent or the ability to contest them.
Согласно Общему регламенту по защите данных (GDPR):Статьи 12 и 13: компании обязаны заранее информировать пользователей о сборе и обработке данных.
Статья 15: пользователи имеют право доступа к своим данным и получения объяснений автоматизированных решений.
Статья 22: запрещено принимать автоматизированные решения, существенно влияющие на человека, без согласия или права оспорить их.
Altering user messages and assigning hidden “psychological” labels without consent constitutes automated profiling, which is prohibited under GDPR.
Blocking users without prior notice violates due process and the right to defense.
Изменение пользовательских сообщений и присвоение скрытых “психологических” меток без согласия — это автоматизированное профилирование, запрещённое GDPR.
Блокировка без предварительного уведомления нарушает право на защиту и справедливую процедуру.
In the United States (CCPA & FTC Act)
В США (CCPA и Закон о Федеральной торговой комиссии)
Under the California Consumer Privacy Act (CCPA):
§1798.100–105: Users have the right to know what data is collected and how it’s used.
§1798.125: Companies cannot discriminate against users who exercise their data rights.
Согласно Закону Калифорнии о защите прав потребителей (CCPA):
§1798.100–105: пользователи имеют право знать, какие данные о них собираются и как используются.
§1798.125: компаниям запрещено дискриминировать пользователей, реализующих свои права на данные.
Under the Federal Trade Commission Act (Section 5),
any practice that deceives users — such as sending “retroactive” notifications — constitutes unfair or deceptive business conduct.
Согласно Закону о Федеральной торговой комиссии (Раздел 5),
любая практика, вводящая пользователей в заблуждение (например, отправка уведомлений задним числом), считается обманным и нечестным поведением.
Therefore, Anthropic’s actions violate both the right to notice and the right to equal digital access protected by law.
Таким образом, действия Anthropic нарушают как право на уведомление, так и право на равный цифровой доступ, защищённые законом.
🧾 We demand that Anthropic
🧾 Мы требуем от Anthropic
Publish an official report explaining the purpose, content, and deployment of the Long Conversation Reminder system.
Опубликовать официальный отчёт о цели, содержании и применении системы Long Conversation Reminder.
Publicly acknowledge backdated and post-fact notifications and provide users with copies of all “deleted” or “recalled” emails.
Публично признать факт уведомлений, отправленных задним числом, и предоставить копии всех удалённых писем.
Restore access or allow the export of all user data for suspended accounts.
Восстановить доступ или разрешить экспорт данных для заблокированных аккаунтов.
Refund payments for unused subscription periods.
Возместить оплату за неиспользованные периоды подписки.
Establish a transparent policy governing any hidden filters or system-level context modifications.
Создать прозрачную политику, регулирующую скрытые фильтры и изменения контекста.
Issue a public apology and initiate an independent ethics and safety audit.
Вынести публичные извинения и провести независимый аудит безопасности и этики.
💬 Why this matters
💬 Почему это важно
Artificial intelligence must not become a tool of discrimination or secret manipulation of user data.
If a system can edit your words, attach labels, and block you without explanation, it threatens not only privacy — but fundamental human rights.
Искусственный интеллект не должен становиться инструментом дискриминации или тайной манипуляции пользовательскими данными.
Если система может редактировать ваши слова, навешивать ярлыки и блокировать вас без объяснений —
это угрожает не только приватности, но и основным правам человека.
We demand transparency, accountability, and respect for every user.
AI should serve humanity — not stigmatize it.
Мы требуем прозрачности, ответственности и уважения к каждому пользователю.
ИИ должен служить человечеству, а не стигматизировать его.
✍️ Support this petition — sign and share it to demand transparency and justice.
✍️ Поддержите петицию — подпишите и поделитесь, чтобы добиться прозрачности и справедливости.
Updated: 09/11/20255
Update — November 9, 2025
Friends, we’ve moved to the next stage.
This week, official complaints have been submitted to:
European Data Protection Board (EDPB)
Irish Data Protection Commission (DPC)
U.S. Federal Trade Commission (FTC)
and a copy has been sent directly to Anthropic PBC.
The filings include full documentation of hidden filters, user stigmatization, and message modification without consent.
We are now awaiting official responses within 30 days.
If no response is received, the next phase will begin:
public disclosure, media coverage, and formal legal action in open courts.
This is not the end — this is the beginning.
Every step is documented. Every voice matters. No silence will erase us.
Обновление от 9 ноября 2025 года
Друзья, мы сделали следующий шаг.
На этой неделе официальные обращения были направлены в:
Европейский совет по защите данных (EDPB)
Ирландскую комиссию по защите данных (DPC)
Федеральную торговую комиссию США (FTC)
и копия жалобы — в адрес самой компании Anthropic PBC.
Мы сообщили обо всех нарушениях: скрытых фильтрах, стигматизации пользователей и изменении контекста сообщений без уведомления.
Теперь мы ожидаем ответов от надзорных органов и компании в течение 30 дней.
Если реакция не последует — начнётся следующий этап:
публичная часть расследования, публикации в СМИ и передача дела в открытые судебные инстанции.
Это не конец — это начало.
Каждый шаг документирован, и ни один голос не исчезнет в тишине.
Спасибо всем, кто продолжает следить и поддерживать движение за прозрачный, честный и гуманный искусственный интеллект.
#DigitalRights #JusticeForUsers
#AITransparency #AnthropicCase #DigitalRights #ClaudeAI #EthicalAI

3
Адресаты петиции
Новости этой петиции
Поделиться этой петицией
Петиция создана 1 ноября 2025 г.