[ Telegram ] Fiasco judiciaire à l'horizon
Pavel Durov, le PDG fondateur de Telegram, a été mis en examen et libéré. Retour sur une procédure délirante qui aura de terribles conséquences internationales pour la France et l'UE.
Encore un fiasco judiciaire majeur en vue. L’Etat français est décidément de plus en plus inapte et semble dirigé par des technocrates incompétents au comportement de petites terreurs de bac à sable. Quand cela touche également la justice, c’est très mauvais signe. Explications.
Pavel Durov a été mis en examen au terme de sa garde à vue. Assujetti à un contrôle judiciaire, il a interdiction de quitter le territoire français, devra verser 5 millions d’euros de caution et se présenter deux fois par semaine au commissariat ou à la gendarmerie de son lieu de résidence. DSA on nous dit. Circulez, c’est “l’Europe”, y a rien à voir !

L’enquête a été confiée au Centre de lutte contre les criminalités numériques (C3N) de la gendarmerie nationale et l'Office national anti-fraude (Onaf), où s'est déroulée sa garde à vue. L’Onaf est donc le chef de file, le C3N l’intervenant technique. On accuse Pavel Durov de complicité d’une série d’infractions - pédopornographie, trafic de stupéfiants etc. - au motif que Telegram aurait refusé de répondre aux réquisitions des autorités françaises en matière de transmission de données et d’interception judiciaire. On lui reproche également d’avoir fourni un service de cryptologie non-soumis à agrément.
Cet article est d’intérêt général, nous le laissons en accès libre. L’Eclaireur a fait le choix de ne pas recourir à la publicité, au financement participatif ni à aucune subvention, publique comme privée. Vos abonnements sont la seule garantie et le prix de notre indépendance et de notre liberté.
Comme nous l’avons souligné dans nos deux articles précédent (en lien ci-dessous), deux questions fondamentales vont très rapidement se poser et vont vraisemblablement faire sauter une procédure dont les fondements semblent particulièrement bancals : la question du ressort et celle de la complicité.
Tout d’abord la question du ressort. Pavel Durov n’est pas résident français et n’a très vraisemblablement pu commettre les infractions qui lui sont reprochées sur le territoire français. Telegram n’est pas un entreprise de droit français et ne dispose pas de filiale en France, pas plus que ses serveurs ne sont, à notre connaissance, situés en France. La saisine de l’Office national anti-fraude, un service des douanes, illustre la nature transfrontalière de cette affaire. Pour mieux comprendre la nature des services judiciaires douaniers, nous vous référons à notre enquête sur l’affaire UBS.
La justice pénale française est-elle compétente dans ces conditions ? Peut-elle émettre injonctions et réquisitions à une entreprise étrangère et tenir son dirigeant comptable en cas de refus de coopérer? La réponse est non puisque les juges français n’ont pas prérogative à agir à l’étranger et doivent requérir l’assistance judiciaire du pays où est domicilié Telegram, en l’espèce les Emirats Arabes Unis, qui souverainement décideront d’octroyer cette assistance et de procéder éventuellement selon leur loi aux réquisitions et interceptions demandées par la justice française.
Quant à la complicité, il faudra prouver que Pavel Durov a activement participé à rendre possible la commission d’infractions sur le sol français. Et pour ce faire, il faudra la coopération de la justice émirati et de celles des pays où sont situés les serveurs de Telegram.
Il va être intéressant de voir ce que les avocats de Pavel Durov vont faire. D’un point de vue procédure, la bataille s’annonce passionnante. Et “la procédure, adversaire résolue de l’arbitraire, est sœur de la liberté.” 1
Mais attendez, c’est quoi ce truc qui ne sert à rien et qui s’appelle Eurojust ? Et nos amis belges aussi alleï ! Enfin, c’est ce qu’affirme la procureure de Paris dont nous imaginons la solitude. “D'autres services d'enquête et parquets français ainsi que divers partenaires au sein d'Eurojust, notamment belges, ont partagé le même constat, déclenchant l'ouverture d'une enquête sur l'éventuelle responsabilité pénale des dirigeants de cette messagerie dans la commission de ces infractions" dit le parquet de Paris dans un communiqué de presse. Le Bordereau de Ravel, quoi! La justice française poursuit au nom d’autres que le peuple français?
Ah mais non, un instant encore! On nous dit dans l’oreillette que Pavel Durov aurait commis des violences graves sur son fils, aujourd’hui vivant en Suisse. Aurait-il osé claquer placidement le museau, à la russe, d’un insolent rejeton?
Quand donc M. Durov sera t-il enfin reconnu pour ce qu’il est, l’assassin de JFK, de RFK, de Jean de Broglie, de Robert Boulin, de Thomas Sankara et du petit Grégory (entre autres) ?
Trèves de galéjades, revenons au droit.
Est-ce à dire que la justice française s’arroge, alors que rien ni en droit ni en jurisprudence ne l’y autorise, une compétence universelle pour tout ce qui se passe sur internet? Avance-t-elle qu’en la matière la loi française est extraterritoriale? Il semblerait que oui, et ce n’est pas une mince affaire puisque cela revient à violer la souveraineté d’autres pays. En l’espèce, cela pourrait nous coûter très cher puisque les Emirats Arabes Unis seraient sur le point de geler le contrat de 17 milliards d’euros pour la fourniture de 80 rafales et de systèmes anti-aériens. Pavel Durov est également citoyen des Emirats…
Ah non! Les Emirats Arabes Unis viennent d’annuler ce contrat. Est-ce une “fake news”? Peut-être mais le paiement de la seconde tranche est gelé…
La réaction la plus brutale viendra de Washington, de la Silicon Valley et du secteur du capital-risque qui, rappelons-le, soutient aujourd’hui majoritairement la candidature de Donald Trump.
Si les Gafam ont consenti à censurer à tout-va durant la campagne électorale de 2020 et la crise de la Covid, ce n’est pas parce qu’elles sont en faveur de la censure. C’est tout simplement qu’elles ont besoin du département d’Etat et de la CIA pour s’assurer du transfert aux USA des données quelles collectent en Europe et que des réglementations européennes telles que le Digital Market Act et le Digital Service Act ne viennent pas obérer leurs opérations et leurs profits. Croire que les Etats-Unis accepteront le précédent que constitue l’affaire Durov est naïf. Si Donald Tump est élu en novembre, sale temps pour les mouches à partir de janvier 2025. Ca va tomber dru.
Précédent, car c’est bien ce que les autorités françaises et derrière elles la Commission européenne espèrent créer. L’Union européenne n’étant pas un Etat souverain et ne disposant donc pas de système judiciaire pénal, c’est au niveau des Etats que cela se joue, qui appliquent la législation européenne selon le principe de la subsidiarité. Même là, la justice française fait n’importe quoi. Voici la preuve par le DSA de l’abus de pouvoir réalisé par les autorités françaises. Le DSA ne s’applique que dans les 27 Etats membres de l’UE, ne l’oublions pas.
Craig Murray, haut diplomate britannique et ancien recteur de l’Université de Dundee a produit en la matière une analyse limpide, dont voici la traduction, que nous publions avec son accord.
La détention de Pavel Durov est présentée comme une conséquence de la législation européenne sur les services numériques (DSA). Après avoir passé ma journée à la lire (ce que je ne souhaite pas à mon pire ennemi), il me semble que ce n’est pas le cas.
Les législations européennes sont horriblement denses et complexes, et sont publiées sous forme de « règlements » et d’« articles ». Les deux couvrent exactement le même domaine, mais à fins d’application, les « règlements », plus détaillés, sont les plus importants.
Ainsi, le règlement 20 rend le « service intermédiaire », en l’occurrence Telegram, responsable uniquement d’une activité illégale effectuée par l’utilisation de son service s’il a délibérément collaboré avec cette l’activité illégale.
Fournir un chiffrement ou garantir l’anonymat ne constitue pas une collaboration délibérée à une activité illégale.
(20) Lorsqu'un fournisseur de services intermédiaires collabore délibérément avec un destinataire des services afin de se livrer à des activités illégales, les services ne devraient pas être réputés avoir été fournis de manière neutre et le fournisseur ne devrait donc pas pouvoir bénéficier des exemptions de responsabilité prévues dans le présent règlement. Tel devrait être le cas, par exemple, lorsque le fournisseur propose son service dans le but principal de faciliter des activités illégales, par exemple en indiquant explicitement que son objectif est de faciliter des activités illégales ou que ses services sont adaptés à cette fin. Le seul fait qu'un service propose des transmissions cryptées ou tout autre système rendant impossible l'identification de l'utilisateur ne doit pas être considéré en soi comme facilitant des activités illégales.
Au paragraphe 30, il est précisé qu'il n'existe aucune obligation générale de surveillance pour le fournisseur de services ni d’obligation de contrôler le contenu. En fait, il est très clair que Telegram n'a aucune obligation de prendre des mesures proactives.
(30) Les fournisseurs de services intermédiaires ne sont pas, ni de jure, ni de facto, soumis à une obligation de surveillance en ce qui concerne les obligations de nature générale. Cela ne concerne pas les obligations de surveillance dans un cas spécifique et, en particulier, n'affecte pas les injonctions des autorités nationales conformément à la législation nationale, dans le respect du droit de l'Union, tel qu'interprété par la Cour de justice de l'Union européenne, et conformément aux conditions établies dans le présent règlement. Aucune disposition du présent règlement ne peut être interprétée comme imposant une obligation générale de surveillance ou une obligation générale de recherche active des faits, ou comme une obligation générale pour les fournisseurs de prendre des mesures proactives en ce qui concerne les contenus illicites.
Toutefois, Telegram est tenu d’agir envers des comptes spécifiques en cas d’injonction individuelle d’une autorité nationale concernant un contenu spécifique. Ainsi, même s’il n’a aucune obligation générale de suivi ou de censure, il doit agir à l’instigation des autorités nationales sur des contenus individuels.
(31) En fonction du système juridique de chaque État membre et du domaine de droit concerné, les autorités judiciaires ou administratives nationales, y compris les autorités répressives, peuvent ordonner aux fournisseurs de services intermédiaires de prendre des mesures contre un ou plusieurs éléments spécifiques de contenu illicite ou de fournir certaines informations spécifiques. Les législations nationales sur la base desquelles ces injonctions sont émises diffèrent considérablement et ces injonctions sont de plus en plus souvent appliquées dans des situations transfrontières. Afin de garantir que ces injonctions peuvent être exécutées de manière efficace et efficiente, en particulier dans un contexte transfrontière, de sorte que les autorités publiques concernées puissent s'acquitter de leurs tâches et que les fournisseurs ne soient pas soumis à des charges disproportionnées, sans porter indûment atteinte aux droits et aux intérêts légitimes de tiers, il est nécessaire de fixer certaines conditions auxquelles ces injonctions devraient satisfaire et certaines exigences complémentaires relatives au traitement de ces injonctions. Par conséquent, le présent règlement ne devrait harmoniser que certaines conditions minimales spécifiques que ces injonctions devraient remplir afin de donner lieu à l'obligation des fournisseurs de services intermédiaires d'informer les autorités compétentes de l'effet donné à ces injonctions. Par conséquent, le présent règlement ne fournit pas de base juridique pour l’émission de telles injonctions, ni ne régit leur portée territoriale ou leur exécution transfrontalière.
(NDLR: voici la question du ressort qui surgit tel le diable de sa boîte et qui ne se cache pas dans les détails. La justice française n’est pas compétente sur le territoire des Emirats Arabes Unis).
Les autorités nationales peuvent exiger la suppression d’un contenu, mais uniquement pour des « éléments spécifiques ».
(51) Eu égard à la nécessité de tenir dûment compte des droits fondamentaux garantis par la Charte de toutes les parties concernées, toute action entreprise par un fournisseur de services d'hébergement à la suite de la réception d'une notification devrait être strictement ciblée, en ce sens qu'elle devrait servir à supprimer ou à rendre impossible l'accès aux éléments d'information spécifiques considérés comme constituant un contenu illicite, sans porter indûment atteinte à la liberté d'expression et d'information des destinataires du service. Les notifications devraient donc, en règle générale, être adressées aux fournisseurs de services d'hébergement dont on peut raisonnablement s'attendre à ce qu'ils aient la capacité technique et opérationnelle d'agir contre ces éléments spécifiques. Les fournisseurs de services d'hébergement qui reçoivent une notification pour laquelle ils ne peuvent, pour des raisons techniques ou opérationnelles, supprimer l'élément d'information spécifique devraient en informer la personne ou l'entité qui a soumis la notification.
Les très grandes plateformes en ligne, qui comptent plus de 45 millions d’utilisateurs dans l’UE, sont soumises à des obligations supplémentaires. Il ne s’agit pas d’obligations supplémentaires de surveillance du contenu, mais plutôt d’obligations supplémentaires visant des garanties dans la conception de leurs systèmes.
(79) Les très grandes plateformes en ligne et les très grands moteurs de recherche en ligne peuvent être utilisés d’une manière qui influence fortement la sécurité en ligne, la formation de l’opinion publique et du discours, ainsi que le commerce en ligne. La manière dont ils conçoivent leurs services est généralement optimisée pour profiter à leurs modèles commerciaux souvent axés sur la publicité et peut susciter des inquiétudes au sein de la société. Une réglementation et une application efficaces sont nécessaires pour identifier et atténuer efficacement les risques et les préjudices sociétaux et économiques qui peuvent en résulter. En vertu du présent règlement, les fournisseurs de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne devraient donc évaluer les risques systémiques découlant de la conception, du fonctionnement et de l’utilisation de leurs services, ainsi que des abus potentiels par les bénéficiaires du service, et devraient prendre des mesures d’atténuation appropriées dans le respect des droits fondamentaux. Pour déterminer l’importance des effets et impacts négatifs potentiels, les fournisseurs devraient tenir compte de la gravité de l’impact potentiel et de la probabilité de tous ces risques systémiques. Par exemple, ils pourraient évaluer si l’impact négatif potentiel peut toucher un grand nombre de personnes, son irréversibilité potentielle ou la difficulté de remédier et de rétablir la situation qui prévalait avant l’impact potentiel.
(80) Quatre catégories de risques systémiques devraient être évaluées en profondeur par les fournisseurs de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne. Une première catégorie concerne les risques liés à la diffusion de contenus illicites, tels que la diffusion de contenus pédopornographiques ou de discours haineux illégaux ou d'autres types d'utilisation abusive de leurs services à des fins pénales, et à la conduite d'activités illégales, telles que la vente de produits ou de services interdits par le droit de l'Union ou le droit national, y compris des produits dangereux ou contrefaits, ou des animaux commercialisés illégalement. Par exemple, une telle diffusion ou de telles activités peuvent constituer un risque systémique important lorsque l'accès à des contenus illicites peut se propager rapidement et largement par le biais de comptes ayant une portée particulièrement large ou d'autres moyens d'amplification. Les fournisseurs de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne devraient évaluer le risque de diffusion de contenus illicites, que les informations soient ou non également incompatibles avec leurs conditions générales. Cette évaluation est sans préjudice de la responsabilité personnelle du destinataire du service de très grandes plateformes en ligne ou des propriétaires de sites Internet indexés par de très grands moteurs de recherche en ligne pour une éventuelle illégalité de leur activité en vertu du droit applicable.
(81) Une deuxième catégorie concerne l’impact réel ou prévisible du service sur l’exercice des droits fondamentaux, tels que protégés par la Charte, notamment, mais sans s’y limiter, la dignité humaine, la liberté d’expression et d’information, y compris la liberté et le pluralisme des médias, le droit à la vie privée, la protection des données, le droit à la non-discrimination, les droits de l’enfant et la protection des consommateurs. De tels risques peuvent survenir, par exemple, en relation avec la conception des systèmes algorithmiques utilisés par la très grande plateforme en ligne ou par le très grand moteur de recherche en ligne ou l’utilisation abusive de leur service par l’envoi d’avis abusifs ou d’autres méthodes visant à faire taire la parole ou à entraver la concurrence. Lors de l’évaluation des risques pour les droits de l’enfant, les fournisseurs de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne devraient tenir compte, par exemple, de la facilité avec laquelle les mineurs peuvent comprendre la conception et le fonctionnement du service, ainsi que de la manière dont les mineurs peuvent être exposés, par le biais de leur service, à des contenus susceptibles de nuire à leur santé et à leur développement physique, mental et moral. De tels risques peuvent survenir, par exemple, en relation avec la conception d’interfaces en ligne qui exploitent intentionnellement ou non les faiblesses et l’inexpérience des mineurs ou qui peuvent provoquer un comportement addictif.
(82) Une troisième catégorie de risques concerne les effets négatifs réels ou prévisibles sur les processus démocratiques, le discours civique et les processus électoraux, ainsi que sur la sécurité publique.
(83) Une quatrième catégorie de risques découle de préoccupations similaires liées à la conception, au fonctionnement ou à l’utilisation, y compris par manipulation, de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne ayant un effet négatif réel ou prévisible sur la protection de la santé publique, des mineurs et des conséquences négatives graves pour le bien-être physique et mental d’une personne, ou sur la violence fondée sur le genre. De tels risques peuvent également provenir de campagnes de désinformation coordonnées liées à la santé publique, ou d’une conception d’interfaces en ligne susceptible de stimuler les addictions comportementales des destinataires du service.
(84) Lors de l'évaluation de ces risques systémiques, les fournisseurs de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne devraient se concentrer sur les systèmes ou autres éléments susceptibles de contribuer aux risques, y compris tous les systèmes algorithmiques susceptibles d'être pertinents.
C’est très intéressant. Je suis d’avis que, selon les articles 81 et 84, l’utilisation flagrante d’algorithmes limitant la portée et le blocage pur et simple par Twitter et Facebook, pour promouvoir un discours pro-israélien et de limiter le contenu propalestinien, constitue très clairement une violation de la directive européenne sur les services numériques par une interférence délibérée avec « la liberté d’expression et d’information, y compris la liberté et le pluralisme des médias ».
La législation est très clairement rédigée dans le but spécifique d’interdire l’utilisation d’algorithmes pour interférer de cette manière avec la liberté d’expression et le discours public.
Mais il est bien sûr évident que l’honnêteté et l’impartialité du ministère public sont bien plus importantes dans tout système judiciaire que les dispositions réelles de la législation.
Seul un imbécile sera surpris que le DSA soit utilisé contre Pavel Durov, apparemment par manque de coopération avec les services de renseignement occidentaux et parce qu’il est russe, et ne soit pas utilisée contre Musk ou Zuckerberg pour avoir limité la portée du contenu propalestinien.
Il convient également de noter que Telegram n'est pas considéré comme une très grande plateforme en ligne par la Commission européenne, qui a jusqu'à présent accepté l'affirmation de Telegram selon laquelle elle compte moins de 45 millions d'utilisateurs dans l'UE, de sorte que ces obligations supplémentaires ne s'appliquent pas.
Si l’on examine les accusations portées contre Pavel Durov en France, je ne vois donc pas en quoi elles sont compatibles avec le DSA.
À moins qu’il ait refusé de supprimer ou d’agir sur un contenu individuel spécifique spécifié par les autorités françaises, ou à moins qu’il n’ait créé Telegram dans l’intention spécifique de faciliter le crime organisé, je ne vois pas comment Durov ne serait pas protégé par les articles 20 et 30 et d’autres garanties figurant dans la loi sur les services numériques.
Les accusations françaises semblent cependant être extrêmement générales et ne pas concerner des communications spécifiques. Il s’agit d’un abus.
Ce que la loi sur les services numériques ne contient pas, c’est une obligation générale de remettre un contenu non spécifié ou des clés de chiffrement aux forces de police ou aux agences de sécurité. Elle est également remarquablement floue à l’égard de la « désinformation ».
Les règlements 82 ou 83 ci-dessus fournissent une base pour la police de la « désinformation », mais la loi en général s’appuie sur l’affirmation selon laquelle les réglementations régissant ce qui est légal hors et en ligne sont les mêmes.
Bref, l’arrestation de Pavel Durov semble être un abus flagrant et n’a qu’un lien très ténu avec la base juridique invoquée comme justification. Cela fait simplement partie de la vague actuelle d’autoritarisme qui monte dans les « démocraties » occidentales.
Craig Murray
Il est évident que le DSA n’est pas le fondement juridique des poursuites contre Pavel Durov. Ces poursuites sont donc de nature politique et visent à forcer les plateformes à coopérer en dehors de tout cadre légal, sur simple injonction administrative.
Ceux qui sont à la tête de nos institutions, qu’elles soient françaises ou européennes, ne connaissent que la menace. Or la menace est toujours le pire moyen de régler les problèmes judiciaires internationaux dont la résolution nécessite tact et coopération.
Au lieu d’inscrire Pavel Durov et son frère Nicolaï au fichier des personnes recherchées avec demande d’interpellation, il fallait envoyer l’ambassadeur de France aux Emirats Arabes Unis, accompagné de l’attaché de justice et de l’attaché de police, demander l’assistance du gouvernement emirati et leur présenter une commission rogatoire internationale pour des infractions pénales précises commises en France en usant de Telegram. Il est peu vraisemblable que nos amis emirati aient refusé cette assistance. Ils auraient procédé eux-mêmes aux réquisitions et interceptions demandées pour le compte de la justice française.
Au lieu de cela, le message que nous faisons passer au monde entier est que par la menace, la coercition et l’usage de la force, nous imposons nos normes et nos lois là où elles n’ont pas cours, au mépris de la procédure et de la souveraineté d’autrui. Le reste du monde ne le tolère plus. Il va falloir que les caniches de Washington tant à Bruxelles et dans les capitales européennes le comprennent. Civilisation du hochet: si ces caniches n’agitent pas le leur dans les médias, ils ont l’impression de ne pas exister. Les faits sont têtus et la réalité toujours brutale pour qui la nie.
👍