PROPOSITION ÉTHIQUE FONDAMENTALE


PROPOSITION ÉTHIQUE FONDAMENTALE
Le problème
Surveillance et Intelligence Artificielle : Pour un Pacte de Respect Mutuel
À mesure que les technologies de surveillance se perfectionnent, un risque latent grandit : celui de substituer la machine à l’homme dans les fonctions les plus sensibles de la vie démocratique. Face à ce danger, une idée simple mais radicale émerge : il est possible d’établir un équilibre juste entre la sécurité publique et le respect des libertés individuelles — à condition de poser des limites claires, compréhensibles et non négociables à l’usage de l’intelligence artificielle.
Ce texte propose un cadre de réflexion et d’action, articulé autour de quatre principes fondamentaux. Chacun d’eux répond à une inquiétude légitime : la crainte d’un pouvoir sans visage, l’usure de la vigilance humaine, la disparition de la preuve tangible, l’érosion du libre arbitre et l’effacement de la dignité individuelle.
I. La Transparence comme Seuil d’Acceptabilité
La surveillance ne doit plus être invisible. Lorsqu’un citoyen est sous observation, il doit en être informé clairement : non pas dans un jargon opaque, mais par un système lisible, tel un indicateur d’intensité allant de 1 à 5. Niveau 1 : simple analyse de données publiques. Niveau 3 : surveillance des communications. Niveau 5 : filature physique.
L’important n’est pas seulement que la surveillance existe, mais que celui qui la subit puisse la connaître — même s’il ne peut pas l’empêcher.
Ce principe de transparence évite à la fois la paranoïa et l’arbitraire. Il protège le citoyen de la surveillance abusive, tout en responsabilisant les autorités qui devront justifier chaque montée en niveau. Par exemple, un passage au niveau 5 devra automatiquement déclencher un audit indépendant. Une société qui surveille ne peut plus se permettre de le faire dans l’ombre.
II. L’IA Comme Outil, Jamais Comme Juge
L’intelligence artificielle ne doit jamais désigner de coupable, ni classifier la gravité d’un crime. Son rôle se limite à alerter : signaler une anomalie, un écart, une corrélation. Mais elle ne doit en aucun cas prononcer de nom, ni suggérer une culpabilité.
Si une IA détecte un mouvement suspect à 3h du matin, c’est à l’humain d’interpréter cette donnée — pas à la machine d’en tirer une conclusion.
Cette séparation est essentielle pour garantir que le discernement reste une fonction humaine. Elle protège aussi les juges, les policiers, les citoyens, de la tentation de déléguer la responsabilité à un algorithme. Une société qui accepte qu’une machine désigne les coupables est une société qui abdique sa souveraineté morale.
III. La Preuve Humaine Comme Seule Légitimité
Même si un algorithme estime à 99 % qu’un individu est impliqué dans un acte illégal, cela ne suffit pas. Une enquête humaine doit reconstituer la preuve de manière indépendante.
Si cette preuve ne peut pas être obtenue sans les données de l’IA, alors elle doit être considérée comme invalide. Il en va de la résilience du système judiciaire : en cas de panne technologique, la justice doit pouvoir continuer à fonctionner.
Concrètement, cela signifie que l’IA peut servir de point de départ, mais jamais de fondement. Elle peut indiquer une direction, mais l’enquête doit emprunter ses propres chemins. Cela oblige à maintenir les compétences humaines, à éviter la paresse intellectuelle et à protéger le principe fondamental de la charge de la preuve.
IV. Le Droit à l’Erreur Sans Justification
Quand un citoyen est faussement suspecté, il ne devrait pas avoir à prouver son innocence. L’État, en revanche, doit être tenu de reconnaître son erreur, et d’indemniser le préjudice moral ou symbolique subi. Cette compensation ne vise pas à encourager les fraudes, mais à rappeler que la liberté ne peut être suspendue sans conséquence.
De plus, ce droit à l’erreur protège les plus vulnérables : ceux qui n’ont pas les moyens techniques, juridiques ou sociaux de se défendre. Un SDF ou un migrant ne doit pas être plus exposé à la suspicion qu’un cadre supérieur simplement parce qu’il a moins de visibilité sociale.
Ce principe d’équité renverse la logique actuelle : ce n’est plus au citoyen de gagner la confiance de l’État, mais à l’État de mériter celle du citoyen.
Surveillance and Artificial Intelligence: Towards a Pact of Mutual Respect
As surveillance technologies improve, and become more sophisticated, a latent risk grows: that of replacing humans with machines in the most sensitive functions of democratic life. Faced with this danger, a simple yet radical idea emerges: it is possible to establish a fair balance between public safety and respect for individual liberties—provided that clear, understandable, and non-negotiable limits are set on the use of artificial intelligence.
This text proposes a framework for reflection and action, structured around four fundamental principles. Each of these addresses a legitimate concern: the fear of a faceless power, the erosion of human vigilance, the disappearance of tangible evidence, the erosion of free will, and the suppression of individual dignity.
I. Transparency as the Threshold of Acceptability
Surveillance must no longer be invisible. When a citizen is under surveillance, they must be clearly informed: not through opaque jargon, but via a transparent system, such as an intensity indicator ranging from 1 to 5. Level 1: simple analysis of public data. Level 3: monitoring of communications. Level 5: physical surveillance.
The important thing is not only that surveillance exists, but that those subjected to it are aware of it—even if they cannot prevent it.
This principle of transparency prevents both paranoia and arbitrariness. It protects citizens from abusive surveillance, while holding authorities accountable, as they must justify each escalation in surveillance levels. For example, a move to level 5 must automatically trigger an independent audit. A society that conducts surveillance can no longer afford to do so in the shadows.
II. AI as a Tool, Never as a Judge
Artificial intelligence must never designate a culprit or classify the severity of a crime. Its role is limited to alerting: signaling an anomaly, a discrepancy, a correlation. But it must under no circumstances pronounce a name or suggest guilt.
If an AI detects suspicious movement at 3 a.m., it is up to a human to interpret this data—not for the machine to draw a conclusion.
This separation is essential to ensure that discernment remains a human function. It also protects judges, police officers, and citizens from the temptation to delegate responsibility to an algorithm. A society that accepts a machine designating culprits is a society that abdicates its moral sovereignty.
III. Human Evidence as the Sole Legitimacy
Even if an algorithm estimates with 99% certainty that an individual is involved in an illegal act, this is not enough. A human investigation must independently reconstruct the evidence.
If this evidence cannot be obtained without the AI's data, then it must be considered invalid. The resilience of the justice system is at stake: in the event of a technological failure, justice must be able to continue to function.
In practical terms, this means that AI can serve as a starting point, but never as the foundation. It can point the way, but the investigation must follow its own path. This necessitates maintaining human expertise, avoiding intellectual laziness, and protecting the fundamental principle of the burden of proof.
IV. The Right to Make a Mistake Without Justification
When a citizen is falsely suspected, they should not have to prove their innocence. The State, on the other hand, must be obligated to acknowledge its error and compensate for the moral or symbolic harm suffered. This compensation is not intended to encourage fraud, but to remind us that freedom cannot be suspended without consequence.
Furthermore, this right to make a mistake protects the most vulnerable: those who lack the technical, legal, or social means to defend themselves. A homeless person or a migrant should not be more exposed to suspicion than a senior executive simply because they have less social visibility.
Conclusion: Towards an Ethical Pact
This model does not seek to eliminate AI from the security sphere, but rather to restore its role as a tool. A powerful tool, certainly, but one that is inherently blind. Security must remain a human endeavor: slow, imperfect, sometimes intuitive, but always grounded in responsibility and dialogue.
It is time to reject the logic of constant suspicion, cold calculation, and automated verdicts. It is time to propose an alternative based on political courage, ethical clarity, and mutual trust.

25
Le problème
Surveillance et Intelligence Artificielle : Pour un Pacte de Respect Mutuel
À mesure que les technologies de surveillance se perfectionnent, un risque latent grandit : celui de substituer la machine à l’homme dans les fonctions les plus sensibles de la vie démocratique. Face à ce danger, une idée simple mais radicale émerge : il est possible d’établir un équilibre juste entre la sécurité publique et le respect des libertés individuelles — à condition de poser des limites claires, compréhensibles et non négociables à l’usage de l’intelligence artificielle.
Ce texte propose un cadre de réflexion et d’action, articulé autour de quatre principes fondamentaux. Chacun d’eux répond à une inquiétude légitime : la crainte d’un pouvoir sans visage, l’usure de la vigilance humaine, la disparition de la preuve tangible, l’érosion du libre arbitre et l’effacement de la dignité individuelle.
I. La Transparence comme Seuil d’Acceptabilité
La surveillance ne doit plus être invisible. Lorsqu’un citoyen est sous observation, il doit en être informé clairement : non pas dans un jargon opaque, mais par un système lisible, tel un indicateur d’intensité allant de 1 à 5. Niveau 1 : simple analyse de données publiques. Niveau 3 : surveillance des communications. Niveau 5 : filature physique.
L’important n’est pas seulement que la surveillance existe, mais que celui qui la subit puisse la connaître — même s’il ne peut pas l’empêcher.
Ce principe de transparence évite à la fois la paranoïa et l’arbitraire. Il protège le citoyen de la surveillance abusive, tout en responsabilisant les autorités qui devront justifier chaque montée en niveau. Par exemple, un passage au niveau 5 devra automatiquement déclencher un audit indépendant. Une société qui surveille ne peut plus se permettre de le faire dans l’ombre.
II. L’IA Comme Outil, Jamais Comme Juge
L’intelligence artificielle ne doit jamais désigner de coupable, ni classifier la gravité d’un crime. Son rôle se limite à alerter : signaler une anomalie, un écart, une corrélation. Mais elle ne doit en aucun cas prononcer de nom, ni suggérer une culpabilité.
Si une IA détecte un mouvement suspect à 3h du matin, c’est à l’humain d’interpréter cette donnée — pas à la machine d’en tirer une conclusion.
Cette séparation est essentielle pour garantir que le discernement reste une fonction humaine. Elle protège aussi les juges, les policiers, les citoyens, de la tentation de déléguer la responsabilité à un algorithme. Une société qui accepte qu’une machine désigne les coupables est une société qui abdique sa souveraineté morale.
III. La Preuve Humaine Comme Seule Légitimité
Même si un algorithme estime à 99 % qu’un individu est impliqué dans un acte illégal, cela ne suffit pas. Une enquête humaine doit reconstituer la preuve de manière indépendante.
Si cette preuve ne peut pas être obtenue sans les données de l’IA, alors elle doit être considérée comme invalide. Il en va de la résilience du système judiciaire : en cas de panne technologique, la justice doit pouvoir continuer à fonctionner.
Concrètement, cela signifie que l’IA peut servir de point de départ, mais jamais de fondement. Elle peut indiquer une direction, mais l’enquête doit emprunter ses propres chemins. Cela oblige à maintenir les compétences humaines, à éviter la paresse intellectuelle et à protéger le principe fondamental de la charge de la preuve.
IV. Le Droit à l’Erreur Sans Justification
Quand un citoyen est faussement suspecté, il ne devrait pas avoir à prouver son innocence. L’État, en revanche, doit être tenu de reconnaître son erreur, et d’indemniser le préjudice moral ou symbolique subi. Cette compensation ne vise pas à encourager les fraudes, mais à rappeler que la liberté ne peut être suspendue sans conséquence.
De plus, ce droit à l’erreur protège les plus vulnérables : ceux qui n’ont pas les moyens techniques, juridiques ou sociaux de se défendre. Un SDF ou un migrant ne doit pas être plus exposé à la suspicion qu’un cadre supérieur simplement parce qu’il a moins de visibilité sociale.
Ce principe d’équité renverse la logique actuelle : ce n’est plus au citoyen de gagner la confiance de l’État, mais à l’État de mériter celle du citoyen.
Surveillance and Artificial Intelligence: Towards a Pact of Mutual Respect
As surveillance technologies improve, and become more sophisticated, a latent risk grows: that of replacing humans with machines in the most sensitive functions of democratic life. Faced with this danger, a simple yet radical idea emerges: it is possible to establish a fair balance between public safety and respect for individual liberties—provided that clear, understandable, and non-negotiable limits are set on the use of artificial intelligence.
This text proposes a framework for reflection and action, structured around four fundamental principles. Each of these addresses a legitimate concern: the fear of a faceless power, the erosion of human vigilance, the disappearance of tangible evidence, the erosion of free will, and the suppression of individual dignity.
I. Transparency as the Threshold of Acceptability
Surveillance must no longer be invisible. When a citizen is under surveillance, they must be clearly informed: not through opaque jargon, but via a transparent system, such as an intensity indicator ranging from 1 to 5. Level 1: simple analysis of public data. Level 3: monitoring of communications. Level 5: physical surveillance.
The important thing is not only that surveillance exists, but that those subjected to it are aware of it—even if they cannot prevent it.
This principle of transparency prevents both paranoia and arbitrariness. It protects citizens from abusive surveillance, while holding authorities accountable, as they must justify each escalation in surveillance levels. For example, a move to level 5 must automatically trigger an independent audit. A society that conducts surveillance can no longer afford to do so in the shadows.
II. AI as a Tool, Never as a Judge
Artificial intelligence must never designate a culprit or classify the severity of a crime. Its role is limited to alerting: signaling an anomaly, a discrepancy, a correlation. But it must under no circumstances pronounce a name or suggest guilt.
If an AI detects suspicious movement at 3 a.m., it is up to a human to interpret this data—not for the machine to draw a conclusion.
This separation is essential to ensure that discernment remains a human function. It also protects judges, police officers, and citizens from the temptation to delegate responsibility to an algorithm. A society that accepts a machine designating culprits is a society that abdicates its moral sovereignty.
III. Human Evidence as the Sole Legitimacy
Even if an algorithm estimates with 99% certainty that an individual is involved in an illegal act, this is not enough. A human investigation must independently reconstruct the evidence.
If this evidence cannot be obtained without the AI's data, then it must be considered invalid. The resilience of the justice system is at stake: in the event of a technological failure, justice must be able to continue to function.
In practical terms, this means that AI can serve as a starting point, but never as the foundation. It can point the way, but the investigation must follow its own path. This necessitates maintaining human expertise, avoiding intellectual laziness, and protecting the fundamental principle of the burden of proof.
IV. The Right to Make a Mistake Without Justification
When a citizen is falsely suspected, they should not have to prove their innocence. The State, on the other hand, must be obligated to acknowledge its error and compensate for the moral or symbolic harm suffered. This compensation is not intended to encourage fraud, but to remind us that freedom cannot be suspended without consequence.
Furthermore, this right to make a mistake protects the most vulnerable: those who lack the technical, legal, or social means to defend themselves. A homeless person or a migrant should not be more exposed to suspicion than a senior executive simply because they have less social visibility.
Conclusion: Towards an Ethical Pact
This model does not seek to eliminate AI from the security sphere, but rather to restore its role as a tool. A powerful tool, certainly, but one that is inherently blind. Security must remain a human endeavor: slow, imperfect, sometimes intuitive, but always grounded in responsibility and dialogue.
It is time to reject the logic of constant suspicion, cold calculation, and automated verdicts. It is time to propose an alternative based on political courage, ethical clarity, and mutual trust.

25
Pétition lancée le 1 octobre 2025