La nouvelle voie vers la confidentialité après l’échec de la réglementation européenne sur les données

0
Broker préféré
Les points forts
  • Idéal pour débuter
  • Retrait rapide et sécurisé
  • Application mobile
Fiabilité
Sécurité
Support
68% des investisseurs particuliers perdent de l'argent sur des comptes CFD. Les trades sur Etoro se font en CFD.
Broker préféré
Les points forts
  • Frais réduit
  • Carte de débit gratuite
  • Expert en crypto
Choix crypto
SAV
Prise en main
Les investissements dans les crypto-monnaies sont risqués.

Les paramètres de cookies sans fin qui apparaissent pour chaque site Web ressemblent un peu à la conformité de farce d’un Internet déterminé à ne pas changer. Il est très ennuyeux. Et cela ressemble un peu à une vengeance des régulateurs par les marchés des données, donnant une mauvaise réputation au Règlement général sur la protection des données (RGPD) et de sorte qu’il pourrait sembler que les bureaucrates politiques ont, une fois de plus, maladroitement entravé le progrès par ailleurs sans heurts de l’innovation. .

La vérité est, cependant, que la vision de la vie privée mise en avant par le RGPD stimulerait une ère d’innovation beaucoup plus excitante que la sleaze-tech actuelle. Dans l’état actuel des choses, cependant, il n’y parvient tout simplement pas. Ce qu’il faut, c’est une approche infrastructurelle avec les bonnes incitations. Laissez-moi expliquer.

Les métadonnées granulaires récoltées en coulisses

Comme beaucoup d’entre nous le savent maintenant, une quantité incessante de données et de métadonnées est produite par les ordinateurs portables, les téléphones et tous les appareils portant le préfixe « intelligent ». À tel point que le concept d’une décision souveraine sur vos données personnelles n’a guère de sens : si vous cliquez sur « non » aux cookies sur un site, un e-mail aura néanmoins discrètement délivré un tracker. Supprimez Facebook et votre mère aura tagué votre visage avec votre nom complet sur une vieille photo d’anniversaire et ainsi de suite.

Ce qui est différent aujourd’hui (et pourquoi en fait une caméra de vidéosurveillance est une représentation terrible de la surveillance), c’est que même si vous choisissez et avez les compétences et le savoir-faire pour protéger votre vie privée, l’environnement global de collecte de métadonnées en masse vous fera toujours du mal. Il ne s’agit pas de vos données, qui seront souvent cryptées de toute façon, mais de la façon dont les flux de métadonnées collectifs révéleront néanmoins des choses à un niveau fin et vous feront apparaître comme une cible – un client potentiel ou un suspect potentiel si vos modèles de comportement se démarquer.

En rapport: Les inquiétudes concernant la confidentialité des données augmentent et la blockchain est la solution

Malgré ce à quoi cela pourrait ressembler, cependant, tout le monde veut en fait de la vie privée. Même les gouvernements, les entreprises et surtout les agences militaires et de sécurité nationale. Mais ils veulent de la vie privée pour eux-mêmes, pas pour les autres. Et cela les amène dans une énigme : comment les agences de sécurité nationale, d’une part, peuvent-elles empêcher les agences étrangères d’espionner leurs populations tout en construisant simultanément des portes dérobées pour qu’elles puissent forcer ?

Les gouvernements et les entreprises ne sont pas incités à assurer la confidentialité

Pour le dire dans une langue éminemment familière à ce lectorat : la demande est là mais il y a un problème avec incitations, c’est un euphémisme. Pour illustrer à quel point il existe actuellement un problème d’incitation, un rapport d’EY évalue le marché des données de santé du Royaume-Uni à lui seul à 11 milliards de dollars.

De tels rapports, bien que hautement spéculatifs en termes de valeur réelle des données, produisent néanmoins une irrésistible feam-of-missing-out, ou FOMO, conduisant à une prophétie auto-réalisatrice alors que tout le monde se précipite pour les bénéfices promis. Cela signifie que bien que tout le monde, des particuliers aux gouvernements et aux grandes entreprises technologiques, puisse vouloir garantir la confidentialité, ils n’ont tout simplement pas suffisamment d’incitations pour le faire. Le FOMO et la tentation de se faufiler dans une porte dérobée, pour rendre les systèmes sécurisés un peu moins sécurisés, sont tout simplement trop forts. Les gouvernements veulent savoir de quoi leur population (et d’autres) parle, les entreprises veulent savoir ce que pensent leurs clients, les employeurs veulent savoir ce que font leurs employés et les parents et les enseignants veulent savoir ce que font les enfants.

Il existe un concept utile des débuts de l’histoire des études scientifiques et technologiques qui peut quelque peu aider à éclaircir ce gâchis. C’est la théorie de l’affordance. La théorie analyse l’utilisation d’un objet par son environnement déterminé, son système et les choses qu’il offre aux gens – le genre de choses qui deviennent possibles, désirables, confortables et intéressantes à faire grâce à l’objet ou au système. Notre environnement actuel, pour le moins, offre la tentation irrésistible de la surveillance à tout le monde, des propriétaires d’animaux et des parents aux gouvernements.

En rapport: L’économie des données est un cauchemar dystopique

Dans un excellent livre, l’ingénieur logiciel Ellen Ullman décrit la programmation de certains logiciels réseau pour un bureau. Elle décrit vivement l’horreur lorsque, après avoir installé le système, le patron se rend compte avec enthousiasme qu’il peut également être utilisé pour suivre les frappes de sa secrétaire, une personne qui a travaillé pour lui pendant plus d’une décennie. Avant, il y avait de la confiance et une bonne relation de travail. Les nouveaux pouvoirs ont transformé par inadvertance le patron, grâce à ce nouveau logiciel, en un monstre, scrutant les rythmes de travail quotidiens les plus détaillés des personnes autour de lui, la fréquence des clics et la pause entre les frappes. Cette surveillance insensée, bien que par des algorithmes plus que par des humains, passe généralement pour de l’innovation aujourd’hui.

La vie privée en tant que fait matériel et infrastructurel

Alors, où cela nous amène-t-il ? Que nous ne pouvons pas simplement mettre des patchs de confidentialité personnelle sur cet environnement de surveillance. Vos appareils, les habitudes de vos amis et les activités de votre famille seront néanmoins liées et vous identifieront. Et les métadonnées fuiront malgré tout. Au lieu de cela, la confidentialité doit être sécurisée par défaut. Et nous savons que cela ne se produira pas uniquement par la bonne volonté des gouvernements ou des entreprises technologiques, car ils n’ont tout simplement pas la motivation de le faire.

Le RGPD avec ses conséquences immédiates a échoué. La confidentialité ne devrait pas être seulement un droit que nous essayons désespérément de faire exister à chaque visite de site Web, ou que la plupart d’entre nous ne peuvent que rêver d’exercer dans le cadre d’affaires judiciaires coûteuses. Non, ce doit être un fait matériel et infrastructurel. Cette infrastructure doit être décentralisée et globale afin qu’elle ne tombe pas dans l’intérêt d’intérêts nationaux ou commerciaux spécifiques. De plus, il doit avoir les bonnes incitations, récompensant ceux qui gèrent et entretiennent l’infrastructure afin que la protection de la vie privée soit rendue lucrative et attrayante tout en la rendant irréalisable.

Pour conclure, je veux souligner un aspect extrêmement sous-estimé de la vie privée, à savoir son potentiel positif d’innovation. La vie privée a tendance à être comprise comme une mesure de protection. Mais, si la confidentialité était simplement un fait, l’innovation basée sur les données deviendrait soudainement beaucoup plus significative pour les gens. Cela permettrait un engagement beaucoup plus large pour façonner l’avenir de tout ce qui est basé sur les données, y compris l’apprentissage automatique et l’IA. Mais plus à ce sujet la prochaine fois.

Les points de vue, pensées et opinions exprimés ici n’engagent que l’auteur et ne reflètent ou ne représentent pas nécessairement les points de vue et opinions de Cointelegraph.

Jaya Klara Brekke est le directeur de la stratégie chez Nym, un projet mondial de confidentialité décentralisée. Elle est chercheuse à l’Institut Weizenbaum, détient un doctorat. du département de géographie de l’Université de Durham sur la politique des protocoles blockchain, et est occasionnellement conseiller expert auprès de la Commission européenne sur la technologie des registres distribués. Elle parle, écrit et mène des recherches sur la vie privée, le pouvoir et les économies politiques des systèmes décentralisés.