Promouvoir et défendre le logiciel libre

03 August 2020

de_crevoisier.png LE-ROUTEUR-WIFI.COM

PC sans carte WiFi ? Utilisez votre téléphone en mode partage de connexion USB !

Le 03 August 2020 à 09:16:13

Il y a des situations où il peut être très intéressant de pouvoir se servir de son forfait mobile afin de pouvoir procurer une connexion internet à d’autres appareils, qu’il s’agisse de vos propres périphériques ou bien de ceux de l’un de vos amis.

Mode Hotspot (rappels)

Ce partage de connexion, également appelé « mode modem » est très utilisé par certaines catégories de personnes, même si cela reste un peu obscure pour beaucoup d’entre nous. Par exemple, je sais de source sûres (mes enfants), que les jeunes sont très friands de cette manière de pouvoir partager l’accès à l’information. Beaucoup d’ados ont encore un forfait avec peu de data, et à la vitesse où ils consomment les données, ils sont généralement vite à sec.  Ils demandent alors les largesses de ceux qui possèdent des forfaits plus généreux pour pouvoir continuer de regarder Youtube dans le car du matin…

Les professions se retrouvant souvent en situation de mobilité utilisent également beaucoup le partage de connexion. Un représentant, par exemple, dont le PC portable ne serait pas compatible 4G va souvent utiliser son smartphone en mode modem afin de pouvoir écrire un email à un client, ou télécharger une plaquette depuis les serveurs du boulot.

Il y a, que cela soit sur Android ou iOS, plusieurs manières de mettre en place un partage de connexion. Nous avions évoqué, lors d’un précédent article, le partage de connexion via hotspot. Avec cette méthode, celui qui partage, créé un réseau WiFi avec son smartphone, et ceux ayant besoin du partage viennent s’y connecter comme ils le feraient sur une box ou un point d’accès WiFi standard. C’est la bonne solution pour un partage ne devant durer que quelques minutes entre des appareils séparés. Mais cette méthode comporte des inconvénients qui la rende peu pratique quand le partage doit durer un peu plus longtemps.

Par exemple, lorsque vous créez un hotspot, la batterie de votre téléphone va se vider très vite, et de plus, la surcharge de travail va avoir tendance à fortement faire chauffer votre smartphone.

Si on reprend l’exemple de notre représentant, s’il doit être connecté un bon moment dans sa voiture, cela risque de ne pas du tout être pratique, voir même de détériorer le téléphone si la pratique est trop fréquente.

C’est pourquoi, aujourd’hui, nous parlons d’une autre manière de partager la connexion internet de son smartphone, le partage de connexion via USB.

Mode modem USB

Dans les cas d’usage qui nous intéressent, l’appareil en mode modem et celui en mode client sont généralement très proche, même lors d’un partage par le WiFi, nous ne noterons donc pas l’avantage qu’à la connexion USB de s’affranchir des obstacles, le plus souvent, il n’y a pas d’obstacle.

Par contre, en partageant sa connexion via un câble USB, on règle un problème assez important, celui de la perte de batterie. En étant connecté à votre ordinateur, votre smartphone se recharge naturellement, et il n’as plus besoin d’émettre en WiFi étant donné qu’il peut transférer les données internet via USB !

On élimine aussi en utilisant un câble une grande partie du problème de chauffe que l’on retrouve presque tout le temps lors d’un partage via hotspot.

Le partage de connexion en utilisant l’USB est donc un moyen plus pérenne de partager sa connexion avec « UN » autre appareil. Même si cela ne doit pas devenir une connexion permanente.

Le partage de connexion via USB a ceci de particulier, que, au contraire du partage via hotspot, il est, dans la majorité des cas, utilisé pour partager sa connexion entre deux appareils vous appartenant.

Vous pourriez alors me dire, que cette méthode sert tout le temps à partager une connexion entre un smartphone et un PC, mais ce n’est plus tout à fait vrai depuis quelques temps. En effet, aujourd’hui, de nombreux modems récents permettent de pouvoir brancher un téléphone en partage de connexion sur leur port USB, afin de fournir un réseau source. Le routeur diffusant ensuite un réseau WiFi avec toutes les options que peut permettre ce genre d’appareil.

On le voit donc, si le partage de connexion est moins flexible que celui par hotspot, il a l’avantage d’être plus adapté si le but est de fournir une connexion à votre ordinateur portable.

De plus, comme indiqué dans mon titre, ce mode de connexion permet aussi de connecter en WiFi un PC qui n’as pas de carte réseau sans fil. Le téléphone deviens alors une sorte de carte réseau externe facilement orientable. Lorsque mon PC portable n’est pas assez puissant pour capter le signal WiFi dans un hotel par exemple, j’essaye souvent de connecter mon téléphone en Modem USB pour voir s’il capte mieux (avec un téléphone récent c’est souvent le cas, car vous pouvez bien l’orienter vers la source du signal !).

Mais alors, comment on fait ?

Vous allez voir, c’est excessivement simple, encore plus que la connexion via hotspot. Premièrement, il faut, assez logiquement, brancher son smartphone à son ordinateur via un câble USB.

Ensuite, sur Android, rendez-vous dans les paramètres, puis sur la page de partage de connexion, comme vous le feriez pour une connexion via hotspot. Sur cette page, vous devez avoir une option nommée « Partage via USB », il suffit de l’activer et c’est terminé. Immédiatement, votre ordinateur devrait réagir en vous informant que vous venez de rejoindre un nouveau réseau. Vous devez maintenant avoir un accès à Internet.

Sur iOS, avec votre iPhone donc, c’est plus ou moins la même chose. Rendez-vous dans les réglages, puis cliquez sur « Partage de connexion », vous arrivez sur une page où il ne vous reste plus qu’à activer le partage et sélectionner « USB » en bas de l’écran.

Il n’est surement pas nécessaire de le préciser, mais dans le doute, il est bien évident que comme si utilisez la connexion cellulaire de votre smartphone, il faut que ce dernier soit en zone de couverture réseau. De plus, plus la réception sera bonne, et plus le débit obtenu sur le PC sera important.

Bien évidemment, cette manière de procéder peut également se révéler très utile, dans le cas, plus rare, où vous devriez utiliser un PC avec une carte réseau défectueuse.

Ça m’est par exemple déjà arrivé de procéder de la sorte, lors du dépannage du PC portable d’un ami. En effets, les transferts de données se faisant par le câble USB, la carte réseau est émulée par le téléphone. Cette technique fonctionne donc avec un ordinateur qui aurait des problèmes de ce côté-là.

Si votre idée de base, en consultant cet article est de purement et simplement utiliser votre smartphone comme carte réseau principale d’un ordinateur défectueux, ce n’est pas forcément la meilleure idée à avoir. En effet, vous limitez considérablement la disponibilité de votre téléphone qui se retrouve avec un fil à la patte, et un débit limité par l’utilisation du PC. Si vous recherchez une solution stable pour pallier à votre problème de carte réseau, le plus simple reste de vous procurer une carte réseau externe USB, ou un dongle USB 4G suivant vos besoins exacts. Concernant les cartes réseau externe, ça coute environ 15€, et pour un dongle USB 4G vous trouverez de bons modèles à 30/40€.

The post PC sans carte WiFi ? Utilisez votre téléphone en mode partage de connexion USB ! appeared first on Routeur-Wifi.

02 August 2020

bsibaud.png Benoît SIBAUD

LinuxFr.org : seconde quinzaine de juillet 2020

Le 02 August 2020 à 17:34:32

Cent quarante-neuvième épisode dans la communication entre les différents intervenants autour du site LinuxFr.org : l’idée est tenir tout le monde au courant de ce qui est fait par les rédacteurs, les admins, les modérateurs, les codeurs, les membres de l’association, etc.

L’actu résumée ([*] signifie une modification du sujet du courriel) :

Statistiques

Du 16 au 31 juillet 2020

  • 1827 commentaires publiés (dont 9 masqués depuis) ;
  • 326 tags posés ;
  • 92 comptes ouverts (dont 29 fermés depuis) ;
  • 26 entrées de forum publiées (dont 3 masquées depuis) ;
  • 52 liens publiés (dont 1 masqué depuis) ;
  • 11 dépêches publiées ;
  • 26 journaux publiés (dont 0 masqué depuis) ;
  • 0 entrée nouvelle, 0 corrigée et 0 invalide dans le système de suivi ;
  • 0 sondage publié ;
  • 0 page wiki publiée (dont 0 masquée depuis).

Listes de diffusion (hors pourriel)

Liste ca@ - [restreint]

  • R.A.S.

Liste linuxfr-membres@ - [restreint]

  • R.A.S.

Liste moderateurs@ - [restreint]

  • [Modérateurs] Fwd: Interview pour le site linuxfr.org remerciements
  • [Modérateurs] Interview Laurent instituteur informatisé, les questions
  • [Modérateurs] Suppression de commentaire

Liste prizes@ - [restreint]

  • R.A.S.

Liste redacteurs@ - [restreint]

  • [Rédacteurs] Retrait intégral

Liste team@ - [restreint]

  • R.A.S.

Liste webmaster@ - [restreint]

  • R.A.S.

Canal IRC adminsys (résumé)

  • crêperie ou pizzeria ?

Tribune de rédaction (résumé)

  • du spam signalé
  • réédition de contenus suite à des changements d'adresses pour des images
  • la dépêche sur les prix de juin est-elle bloquée en modération ? Elle dépend principalement du Grand Maître des prix, et des (non-)réponses des gens

Tribune de modération (résumé)

  • du spam (principalement)
  • des corrections post-publication
  • l'envie de faire une soirée de contribution sur Grammalecte (qui sera finalement un week-end complet)
  • on approche de la 40 000ᵉ nouvelle dépêche (39 977 numéros attribués jusqu’ici, pour avoir actuellement en base de données 26 068 dépêches publiées, plus 69 en rédaction, 3 en modération et 909 refusées)
  • le journal J’ai testé pour vous : se faire usurper son identité repris via gazouillis par S. Bortzmeyer ou M. Rees ça donne une bonne visibilité

Commits/pushs de code https://github.com/linuxfrorg/

(site web)

  • build(deps): bump lodash from 4.17.15 to 4.17.19
  • Add writing directives for new articles (#279)

(admin sys)

  • Fix permanent redirection /topics/ -> /sections/

Divers / TODO / pense-bête

  • aide / FAQ : synthèse en cours d’écriture sur le karma ;
  • préparer une dépêche sur les mises en demeure n°4 et n°5 ;
  • interventions à faire sur les serveurs zobe et gruik ;
  • finaliser un peu le code qui permet de tester actuellement 283 adresses du site

Commentaires : voir le flux Atom ouvrir dans le navigateur

01 August 2020

bsibaud.png Benoît SIBAUD

Week-end de contribution à Grammalecte

Le 01 August 2020 à 09:52:09

Grammalecte est un correcteur grammatical et typographique libre, pour la langue française uniquement, pour Writer (LibreOffice, OpenOffice), Firefox & Thunderbird, Chrome, etc. Il a déjà été évoqué de nombreuses fois sur LinuxFr.org :

  • dépêches sur les campagnes de financement participatif 1 et 2, avec le soutien de LinuxFr.org
  • journal évoquant sa correction des dates
  • etc.

L’équipe de modération du site LinuxFr.org utilise quotidiennement Grammalecte pour corriger les fautes de frappe, d’orthographe, de grammaire, de typographie ou de dates (ça arrive de temps en temps avec l’Agenda du Libre par exemple). Bref on aime Grammalecte.

Pour autant cela ne veut pas dire que tout est parfait dans ce logiciel : il est possible de l’améliorer en signalant les problèmes rencontrés, les erreurs non corrigées, les propositions de corrections erronées, etc.

Et c’est là que LinuxFr.org peut aider et contribuer : je vous propose durant ce week-end de contribuer à Grammalecte (et un peu à LinuxFr.org vu que ça peut nous aider à corriger des contenus au passage). Comment procéder :

  • installer Grammalecte (dans votre navigateur sur ordinateur ou mobile)
  • allez sur la dépêche collaborative de contribution à Grammalecte
  • indiquer la page que vous êtes en train de faire relire par Grammalecte, en ajoutant la croix ✘ + votre pseudo après le lien de la page
  • ensuite venir noter les éventuels problèmes sur la page considérée
  • puis marquer la page comme relue en remplaçant la croix par une coche ✔
  • choisir une autre page et recommencer, jusqu’à épuisement du stock ou de votre motivation contributive

(nb: il existe aussi LanguageTool mais nous ne l’utilisons pas pour LinuxFr.org actuellement)

Commentaires : voir le flux Atom ouvrir dans le navigateur

de_crevoisier.png LE-ROUTEUR-WIFI.COM

Où se trouvent les serveurs de votre service VPN ?

Le 01 August 2020 à 09:05:42

On ne va pas présenter une nouvelle fois ce qu’est un service VPN, s’il y a encore certains qui ne savent pas, vous pouvez aller lire les nombreux articles relatifs que nous avons écrit sur notre site.

Présenter, non (on l’as déjà fait dans cet article !), mais faire un très court rappel, pour vous permettre de bien comprendre la suite de l’article, oui !

Un service VPN c’est un service qui va vous permettre de faire intervenir un ordinateur tiers, le serveur VPN, dans votre chaine de connexion. Ainsi, l’ensemble des données de l’appareil connecté, transitent par ce serveur. Les flux de données sont chiffrés dans les sens.

Cela implique, que c’est l’adresse IP dudit serveur qui est visible et non plus la vôtre, et que suivant la localisation de ce serveur, vous pouvez géolocaliser votre IP n’importe où dans le monde. Et c’est ce qui nous intéresse ici (j’avais prévenu que ce serait juste un court rappel…).

Si vous vous connectez à un serveur VPN situé en Australie, vous allez avoir une IP donnée par ce serveur, donc une IP australienne. Logique.

Ca fonctionne tout le temps ?

Non. Malheureusement ce n’est pas toujours le cas, et vous vous en rendrez peut-être compte avec votre propre fournisseur de service VPN. Parfois, vous vous connectez à un serveur étranger pour profiter, par exemple d’un media accessible uniquement dans ce pays, et pourtant vous recevez la fameuse phrase « Ce contenu n’est pas accessible dans votre région ».

A cela il peut y avoir deux explications majeures.

La première est que la plateforme, le site, ou le service auquel vous essayez d’accéder a bloqué le serveur VPN auquel vous êtes connecté.

Pourquoi ? Principalement pour des raisons de droits, concernant les films et les séries, des accords sont signés concernant les droits de diffusion. Un film ne sort pas sur Netflix, par exemple, en même temps partout dans le monde. Une émission diffusée en Guadeloupe, peut, ne pas être disponible depuis la France métropolitaine etc…

C’est assez simple, pour un service en ligne de bloquer un ou plusieurs serveurs VPN, voir l’ensemble du parc d’un prestataire. Il suffit, qu’un script détecte que de nombreuses connexions ont lieu avec la même IP ou sur un pool d’adresses proches. Ce script va demander une vérification à un humain, et là ça prend deux secondes, il suffit de vérifier à qui appartient l’IP… si elle appartient à un datacenter, alors il y a de très grandes chances que ce soit celle d’un serveur VPN, et l’adresse est bloquée.

Le prestataire VPN n’a plus qu’à louer une autre adresse pour ce serveur. Bien entendu, tout ceci est très simpliste, et c’est un peu plus compliqué en réalité, mais ça permet de bien comprendre de quoi il retourne.

Bref, voilà, la première raison d’un service inaccessible le blocage, mais il y a autre chose qui nous intéresse plus dans le cas présent, c’est le refus de connexion alors que le serveur n’est pas bloqué.

Les hébergeurs

Un prestataire VPN qu’il soit petit ou gros n’a généralement pas de datacenter. Cela couterait extrêmement cher, pour un fournisseur VPN, s’il devait déployer, dans chaque pays qu’il souhaite couvrir, un ou plusieurs serveurs physiques.

Quelques exemples d’apps VPN officielles

La solution est donc, de passer par un hébergeur. Imaginons qu’un fournisseur VPN américain veuille mettre en place un serveur en France. Il va contacter 1&1 ou OVH (les deux hébergeurs les plus connus en France), et louer les serveurs qui l’intéresse. De fait, ces serveurs, situés en France, ont une IP française, et tant que ces IP ne seront pas bloquées, un résidant américain pourra regarder TF1 ou France Télévision depuis chez lui.

Mais, et c’est là tout le cœur du problème, il est possible que le fournisseur VPN ne puisse trouver un hébergeur dans un pays qu’il doit couvrir. Qu’il doit couvrir, parce que ses clients le lui demandent par exemple, mais aussi car il faut bien le dire, il y a une certaine course au nombre de pays couverts entre les différents acteurs du marché.

C’est bien plus commun que ce que l’on pense, je vous mets par exemple au défi de trouver un hébergeur correct, en termes de performances de prix et de confidentialité, dans beaucoup de pays d’Amérique Latine et Centrale, en Afrique, dans certains pays du Moyen-Orient, dans les Pays qui n’autorise pas les VPN… Comment louer un serveur dans un pays où il n’y pas de datacenter, ou dans un pays où les VPN sont interdits…

La solution, pour le prestataire de service VPN est alors de géolocaliser virtuellement l’IP du serveur dans ce pays, alors qu’en réalité, le serveur se trouve dans un autre. Vous seriez vraiment surpris de savoir, sur le nombre de pays que couvre votre fournisseur VPN, combien de serveurs ne sont pas là où ils devraient être.

Est-ce malhonnête de la part du prestataire ? En fait pas vraiment, car comme nous allons le voir plus loin, si c’est bien fait, cela ne pose pas vraiment de problème particulier.

Les IP virtuelles, un problème ?

Déjà, il faut bien comprendre, que pour un service en ligne, fournisseur de connexion VPN ou autre, le but est de faire de l’argent, et donc que les avis des utilisateurs sont particulièrement importants.

Un service VPN ne va pas virtuellement localiser un serveur, si c’est possible de le placer physiquement dans le pays. Il ne va le faire que quand il n’y a pas d’autres solutions, par exemple, un fournisseur VPN placera toujours un serveur physique dans les pays qui sont très accédés, comme le Royaume-Uni pour BBC iPlayer, les US pour Netflix… mais au Congo, par exemple, il n’y a pas de grosses plateformes comme ça. Dans cet exemple, les utilisateurs susceptibles de se connecter au serveur congolais, vont le faire, soit pour la télévision locale, soit pour des sites locaux.

Et c’est là que c’est intéressant, souvent, et suivant la base de données qu’utilise ce service, ça fonctionne très bien… même si, il faut bien le dire, ces services situés à l’étrangers, utilisent de plus en plus de multiples bases de données concernant les IPs, et ils arrivent de plus en plus à connaitre le réel pays d’hébergement du serveur.

Quand je parle de bases de données d’IP, je parle des services qui permettent de dire que telle IP provient de tel pays. Par exemple, si vous testez votre IP sur ce site : http://www.mon-ip.com vous avez le résultat d’une base de données. Mais si vous utilisez un site comme celui-là : https://www.iplocation.net alors vous accès à de multiples bases. Et dans le cas d’un serveur VPN virtuellement placé dans un pays donné, il y a souvent une base qui va indiquer le vrai pays…

Comment savoir ?

Et bien tout simplement en faisant exactement ce que je viens d’expliquer. Vous vous connectez au serveur à propos duquel vous avez des doutes, puis vous vous rendez sur IPlocation.net, et il y a de fortes chances que vous ayez une réponse instantanée.

Si les bases de données continuent de vous dire que l’IP appartient bien au bon pays, mais que vous avez quand même des doutes, il y a une autre astuce.

IPlocation vous dit à qui appartient l’IP, à quel FAI. Ce fournisseur d’accès à Internet opère-t-il dans le pays qui vous pose question ? Si oui, vous pouvez vous rendre sur un service de Whois, comme https://centralops.net qui vous dira, peut-être, qui utilise cette IP. Si vous obtenez une réponse, ce sera le nom d’un service d’hébergement. Là encore, cet hébergeur existe-t-il dans le pays qui vous intéresse ?

Mais comment certains VPN ont des serveurs en Argentine ?

J’ai mis l’Argentine juste pour le titre, mais la question est comment, certains prestataires VPN arrivent à proposer un serveur physique là où il n’y pas d’hébergeur ?

De même, comment certains fournisseurs VPN arrivent à vous connecter à Netflix depuis un autre pays que les Etats-Unis alors que Netflix a bloqué la quasi-totalité des hébergeurs du monde entier ?

La réponse à ces deux questions, c’est l’hébergement résidentiel. Alors, attention, vous risquez d’être un peu surpris…

Parfois, votre serveur VPN, est situé dans le salon de quelqu’un, ou bien dans un hangar qui possède qui possède de multiples abonnements internet, des abonnements normalement réservés à des particuliers… c’est ça l’hébergement résidentiel, faire se connecter un client sur le poste d’un autre, ou bien le faire se connecter à un abonnement de particulier.

Si l’abonnement internet n’est pas identifié comme étant en lien avec un datacenter, la connexion au service n’est pas bloquée.

Si vous vous connectez, depuis la France, à un serveur VPN situé derrière une ligne AT&T aux USA, chez un particulier, ou dans une société multipliant ces abonnements, vous aurez accès à Netflix US. C’est aussi simple que cela.

Vous me direz, tant que la personne située à l’autre bout du monde est au courant que vous vous connectez chez elle, ce n’est pas un problème… on ne vas pas citer de nom mais c’est rarement le cas. Certains prestataires VPN, parmi les plus importants, se servent de leur application, installée chez leurs clients, comme d’un relais pour faire de l’hébergement résidentiel, sans que le client ne le sache. Si vous pensez que je suis paranoïaque, je vous propose de faire vos propres recherches maintenant que vous connaissez les termes adaptés. Vous devriez tomber sur un article très intéressant de chercheurs en sécurité qui ont démontré, que c’est bien comme cela que ça se passe. L’étude est très intéressante, et en plus de ça, les résultats sont reproductibles…

Donc pour conclure, et pour répondre au titre de l’article, où se trouvent les serveurs de votre service VPN ? Et bien, dans le pays auquel vous vous voulez être connecté, ou dans un pays pas loin, ou à l’autre bout du monde, ou dans le salon d’un retraité en Floride… mais généralement, avec un peu d’astuce, vous pouvez en avoir le cœur net.

The post Où se trouvent les serveurs de votre service VPN ? appeared first on Routeur-Wifi.

Bruno GODILLON

Instagram : attention à l’arnaque qui menace de fermer votre compte !

Le 01 August 2020 à 08:26:27

Une escroquerie sur Instagram plutôt bien conçue refait surface depuis quelque temps déjà. Elle cible des profils de toutes sortes, mais souvent ceux comportant beaucoup de fans. Parfois, il arrive directement sous la forme d’un message privé interne à la plate-forme, d’autres comme un courrier électronique traditionnel. Cependant, la méthode ne change pas : le texte annonce en termes virulents une violation (présumée) du droit d’auteur par le compte ciblé. Il indique donc la nécessité de se connecter à une plateforme dédiée à la résolution du litige, ce qui se fait bien sûr en entrant vos coordonnées sociales (mais aussi d’autres, comme Facebook). Dans le cas contraire, le profil sera suspendu. mais en réalité tout est faux.

Notre expérience

Cela nous est arrivé à nous aussi. Le message s’ouvre et explique :

“Une violation des droits d’auteur a été détectée dans un message sur votre compte. Si vous pensez qu’il ne s’agit pas d’une infraction, vous devez nous en fournir la preuve. Sinon, votre compte sera fermé dans les 24 heures. Vous pouvez fournir votre explication à partir du lien ci-dessous. Merci de votre compréhension.”

Si vous cliquez sur le lien proposé comme celui que nous avons reçu (copyrightsbusiness.com), celui-ci ouvre une plateforme incroyablement similaire aux centres de support des applications de Menlo Park, mais avec l’url instagram.helpclient-team.com ou similaire.

Cette adresse url n’a bien sûr rien à voir avec quoi que ce soit d’officiel. Le tout est signé “Instagram from Facebook”. Le compte d’où il provient, au cas où l’escroquerie serait tentée entre deux messages directs, le compte est @igforsteamviolation. Mais on peut supposer qu’il existe de nombreux autres clones similaires, à la recherche des victimes parfaites.

Comment faire face ?

Ce qui est assez troublant, c’est qu’en répondant au message vous obtenez des réponses tout à fait “humaines”. En bref, cela ne ressemble pas vraiment au travail d’un bot mais à une opération beaucoup plus chirurgicale. Vous devez évidemment bloquer le compte en question et le signaler à Instagram en tant que diffuseur de spam, en cliquant sur le menu en haut à droite.

Si, au contraire, vous recevez un courrier électronique, il est bon de se rappeler qu’Instagram ne contactera jamais les utilisateurs de cette manière mais, le cas échéant, il utilisera un système de notifications à l’intérieur de l’application et certainement pas via la messagerie privée. Au contraire, si vous ne faites pas attention et que vous tombez dans le piège, les pirates prendront possession de vos identifiants de connexion, puis voleront votre identité en vous faisant chanter ou en prenant d’autres mesures malveillantes telles que la création de nouveaux réseaux de spam.

30 July 2020

april.png Nouvelles April

Faut-il avoir peur des algorithmes - Aurélie Jean - Jean-François Bonnefon - Grand bien vous fasse

Le 30 July 2020 à 14:50:57


voiture autonome

Titre : Faut-il avoir peur des algorithmes ?
Intervenant·e·s : Aurélie Jean - Jean-François Bonnefon - Ali Rebeihi
Lieu : Émission Grand bien vous fasse, France Inter
Date : février 2020
Durée : 45 min 20 [NB : la chronique « Pas son genre » de Giulia Foïs n'est pas transcrite]
Écouter le podcast sur le site de l'émission
Licence de la transcription : Verbatim
Illustration : Voiture autonome, Séquence voiture autonome - Licence Créative Commons CC BY-NC-ND 3.0 FR robot24.fr-2014
NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Description

On s’intéresse notamment aux dilemmes moraux que pose l’intelligence artificielle quand par exemple les voitures sans conducteur décideront de sauver ou non un individu sur leur chemin. Vous verrez que les algorithmes posent des questions éthiques vertigineuses.

Transcription

Ali Rebeihi : Bonjour à tous. Soyez les bienvenus en direct ou en podcast. Vous le verrez ce matin, un algorithme est une suite d’opérations ou d’instructions qui permettent de résoudre un problème ou d’obtenir un résultat.
Les algorithmes numériques nous accompagnent dans tous les domaines de notre existence quand nous utilisons, par exemple, nos smartphones ou nos ordinateurs ? Faut-il vraiment avoir peur des algorithmes numériques ? Quels dangers réels représentent ces algorithmes dont on ne peut plus se passer ?
Le vrai danger c’est peut-être les biais algorithmiques, l’équivalent des biais cognitifs pour les humains. Des biais algorithmiques qui peuvent conduire à des erreurs et à des discriminations quand, par exemple, les tout premiers outils de reconnaissance faciale ne prenaient pas en compte les peaux noires.
On s’intéressera également aux vertigineux dilemmes moraux que posent les algorithmes des voitures sans conducteur qui devront privilégier soit la sécurité des passagers soit celle des piétons.

Pour nous éclairer ce matin, l’entrepreneur Aurélie Jean et le chercheur Jean-François Bonnefon.
Avez-vous peur des algorithmes ou alors pas du tout ? 01 45 24 7000, sans oublier la page Facebook de Grand bien vous fasse et l’appli France Inter.

Vers 11 heures moins 25 vous retrouverez la chronique « Pas son genre » de Giulia Foïs.
Bienvenue dans Grand bien vous fasse, la vie quotidienne, mode d’emploi.

Voix off : France Inter, Grand bien vous fasse, Ali Rebeihi.

Ali Rebeihi : Bonjour Aurélie Jean.

Aurélie Jean : Bonjour Ali.

Ali Rebeihi : Vous êtes docteure en sciences et chef d’entreprise, ancienne élève de Normale Sup, de Mines Paris Tech, chercheuse au MIT aux États-Unis.

Aurélie Jean : Ancienne chercheuse.

Ali Rebeihi : Ancienne chercheuse mais tout de même. Vous publiez aux éditions de L’observatoire De l’autre côté de la machine. Voyage d’une scientifique au pays des algorithmes, ce titre fait évidemment référence à Lewis Carroll, De l’autre côté du miroir, c’était la suite de Alice au pays des merveilles

Aurélie Jean : Oui. Absolument c’est une belle référence à Lewis Carroll et je parle d’ailleurs dans le livre de cette œuvre qui m’est très chère.

Ali Rebeihi : Pourquoi ce titre ?

Aurélie Jean : Déjà parce que c’était dans le concept, l’ADN de la collection De facto créée par Gaspard Koenig au sein de L’observatoire et c’est vrai que c’est intéressant parce que le meilleur moyen pour faire comprendre les choses aux gens c’est de les emmener de l’autre côté de l’objet qui les sépare de ce monde et en l’occurrence, dans mon cas, c’était le monde des algorithmes et c’est une manière assez douce pour les amener gentiment, justement, vers ce monde dont ils ont peur.

Ali Rebeihi : Bonjour Jean-François Bonnefon.

Jean-François Bonnefon : Bonjour.

Ali Rebeihi : Vous êtes docteur en psychologie cognitive, directeur de recherche à la fameuse Toulouse School of Economics, vous êtes médaille de bronze du CNRS et vous publiez chez HumenSciences La voiture qui en savait trop. L’intelligence artificielle a-t-elle une morale ?. Votre titre se réfère bien évidemment au célèbre film de Hitchcock, L’Homme qui en savait trop.

Jean-François Bonnefon : C’est ça.

Ali Rebeihi : Il sera question de psychologie morale, avec vous, dans la seconde partie de l’émission. Expliquez-nous ce qu’est la psychologie morale en quelques mots.

Jean-François Bonnefon : La psychologie morale c’est comprendre comment les gens décident de ce qui est bien ou ce qui est mal. C’est très différent, par exemple, de la philosophie morale qui essaie de déterminer ce qui est bien et ce qui est mal. La psychologie morale c’est une description de comment les gens arrivent à ce genre de jugement.

Ali Rebeihi : Comment expliquer ce qu’est un algorithme à un enfant de dix ans, Aurélie Jean ? J’ai parfois utilisé, dans cette émission, l’exemple de la recette de cuisine pour expliquer ce qu’est un algorithme et je mérite un gros pan sur le bec, Aurélie Jean.

Aurélie Jean : Non parce qu’en fait, comme vous l’avez très bien dit, vous avez donné un exemple. La recette de cuisine est un algorithme mais dire que l’algorithme est une recette cuisine, je trouve que c’est un petit peu…

Ali Rebeihi : Simpliste.

Aurélie Jean : Oui. En fait c’est trop simpliste parce qu’après, du coup, on a du mal à comprendre des concepts un peu plus abstraits qui sont propres à l’algorithmique. Ce que je dis c’est que la recette de cuisine est un algorithme, mais que l’algorithme n’est pas une recette de cuisine.

Ali Rebeihi : Alors c’est quoi un algorithme ?

Aurélie Jean : C’est ce que vous avez dit en introduction et c’est très bien dit, c’est-à-dire que c’est un ensemble d’opérations à exécuter selon une certaine logique pour résoudre un problème, répondre à une question, obtenir un résultat par rapport à un problème donné.

Ali Rebeihi : Vous comprenez que ça fasse peur les algorithmes ? Le mot algorithme ?

Aurélie Jean : Oui, le mot fait peur parce qu’en fait on l’associe à tous les scandales qu’on a pu entendre, voir, sur lesquels on a pu lire ces deux dernières années. C’est vrai que dès qu’on parle d’algorithmique et des algorithmes on les personnifie, c’est-à-dire qu’on leur attribue des caractères anthropomorphiques : on parle d’algorithmes sexistes, injustes, discriminatoires, racistes. Ce sont des choses qui font relativement peur, donc il faut sortir de cette passion pour raisonner sur les débats actuels.

Ali Rebeihi : Pouvez-vous nous donner des exemples d’algorithmes numériques utilisés dans la vie de tous les jours, des algorithmes présents dans notre vie quotidienne, du matin au soir, toute l’année, qui nous accompagneront certainement jusqu’à notre dernier souffle.

Aurélie Jean : Il y en a plein, la liste est longue. Par exemple, quand vous décidez d’utiliser une application qui va vous définir le chemin le plus optimal pour aller d’un point à un autre, que ce soit dans les transports en commun ou à pied ou en voiture, ce sont trois modes différents, ça dépend des outils. Il y a des algorithmes qui vont regarder le chemin le plus court, d’autres algorithmes qui vont prendre en considération le trafic des voitures et d’autres algorithmes qui vont aussi prendre en considération le trafic des transports en commun, à savoir lorsqu’il y a des grèves ou des accidents. Donc c’est un exemple parmi tant d’autres.

Ali Rebeihi : Les applis de rencontre aussi ?

Aurélie Jean : Les applis de rencontre aussi, plein de choses. Quand vous allez, par exemple, sur un site pour aller acheter un produit en particulier il y a des algorithmes, entre autres, de captologie ou des algorithmes d’optimisation pour optimiser votre « parcours client », comme on dit, des choses comme ça.

Ali Rebeihi : Quelle est l’origine du mot « algorithme », qui s’écrit sans « y ». Il faut partir du côté de la Perse.

Aurélie Jean : Oui, exactement, vous avez très bien dit. Même si aujourd’hui on parle d’algorithmes numériques qui sont censés être écrits, codés dans un programme informatique pour tourner sur un ordinateur, traditionnellement, historiquement l’algorithme est fait pour être écrit à la main et résolu à la main. Le mot « algorithme » vient du mot latin Algoritmi qui est, en fait, le nom latin du grand mathématicien perse Al-Khwârizmî dont le nom provient aussi, en fait, du mot algèbre. En fait, le concept de science algorithmique est même bien plus ancien, au 3e siècle avant notre ère : Al-Khwârizmî c’est 9e siècle de notre ère. C’est aussi 3e siècle avant notre ère avec les cours de logique d‘Euclide et son livre, son œuvre les Éléments qui donne des processus de raisonnement logique pour résoudre des problèmes et entre autre démontrer des théorèmes.

Ali Rebeihi : Je redis le nom de ce mathématicien, Muhammad Ibn Mūsā al-Khuwārizmī, et son nom a été latinisé en Algoritmi qui donnera donc algorithme.
Vous, votre premier algorithme vous l’écrivez à l’âge de 19 ans, Aurélie Jean ?

Aurélie Jean : Oui. C’est intéressant parce que je le fais écrire dans le livre par les gens. C’est une belle manière de démystifier la discipline et de leur montrer que c’est possible.
Moi c’est à l’âge de 19 ans. Je faisais des cours de maths et de physique à Sorbonne Universités et j’ai décidé de prendre un cours optionnel de sciences informatiques, d’abord par une frustration de ne pas comprendre ce que sont les sciences informatiques, je ne sais pas si c’est la meilleure motivation mais c’est un driver comme un autre. En fait, durant ce cours, j’ai passé mes six premiers mois avec un papier et un crayon à écrire des algorithmes. Ça a été la découverte de cette science. Mon premier algorithme, dont je parle dans le livre et que les gens peuvent écrire avec moi, c’est un algorithme assez simple en soi.

Ali Rebeihi : Je l’ai compris !

Aurélie Jean : Vous l’avez compris ? C’est bien. C’est un algorithme pour trier dans l’ordre croissant des nombres entiers, des nombres naturels dans un tableau. C’est très rigolo. Au début, quand j’explique, je dis « tout le monde sait résoudre ce problème, c’est facile, maintenant c’est : est-ce que vous allez pouvoir le résoudre le plus rapidement possible ? » Et c’est là où la science algorithmique intervient.

Ali Rebeihi : Qu’est-ce qui vous fascine dans la science algorithmique ?

Aurélie Jean : Il y a plusieurs choses. Déjà j’adore le caractère mathématique appliquée de la science algorithmique. Ce que j’aime beaucoup, en fait, c’est que ça permet de résoudre des problèmes concrets par une voie optimale en termes de nombres d’opérations à exécuter. C’est vraiment le côté résoudre des problèmes concrets.

Ali Rebeihi : Un exemple ?

Aurélie Jean : Typiquement, le cas du tableau est un exemple parce que c’est vrai qu’on passe sa vie à trier des choses dans les problèmes aujourd’hui. Par exemple ce que j’ai fait dans ma thèse ou même plus tard dans ma recherche quand j’ai travaillé sur le traumatisme crânien, c’est grâce à des modèles mathématiques que j’ai traduit sous forme algorithmique pour faire des simulations, que j’ai pu établir une loi qui a estimé, qui estime toujours d’ailleurs, les risques d’un humain d’avoir un traumatisme crânien par rapport à l’énergie, au type de choc qu’il ou elle a pu recevoir à la tête. Je trouve que c’est quand même fascinant d’arriver à résoudre un problème concret. Après c’est un ensemble, ce n’est pas un algorithme, il y a plein d’algorithmes dans ce modèle, mais c’est quand même dingue de voir qu’on arrive à résoudre des problèmes concrets en passant par le virtuel parce que, quelque part, l’algorithmique, en tout cas numérique, c’est aussi passer par la virtualisation des phénomènes, de l’autre côté de la machine, dans la machine, en l’occurrence dans l’ordinateur.

Ali Rebeihi : Jean-François Bonnefon, on peut peut-être avoir peur des algorithmes des voitures sans conducteur ? C’est toute la question de votre livre.

Jean-François Bonnefon : Oui, parce que l’algorithme d’une voiture sans conducteur c’est vraiment un cas extrême de décision automatique, en partie à cause de ses enjeux puisque là on parle de l’intégrité physique des passagers ou des gens qui sont sur la route donc de conséquences qui sont assez graves potentiellement. Et aussi parce que, en général, quand il y a une décision qui est prise par un algorithme, c’est plutôt une suggestion, surtout quand il y a des conséquences potentiellement graves, il y a un humain qui va, à un moment, être dans la boucle, valider la décision, l’examiner.
Les voitures sans conducteur, la prise de décision automatique se produit à un tel rythme qu’on est dans un cas où il est difficile de mettre un humain dans la boucle à chaque fois.

Ali Rebeihi : « Faut-il avoir peur des algorithmes ? », c’est le titre de cette émission, mais n’oublions pas leurs bienfaits, notamment dans le domaine de la recherche médicale. Aurélie Jean.

Aurélie Jean : Oui, pas que dans la recherche, même dans la pratique médicale clinique aujourd’hui. Les algorithmes interviennent par exemple pour faire des tests biologiques où on va pouvoir analyser des prélèvements de façon automatique, mais ça fait très longtemps qu’on est capable de faire ça. Par exemple, on parle beaucoup des algorithmes qui vont aller détecter, pré-détecter des tumeurs sur des radiographies. Ça peut être beaucoup de choses, des algorithmes qui vont peut-être optimiser certains diagnostics, il y a plein de choses qui se font, mais, comme le dit très bien Jean-François, il faut le redire, l’algorithme fournit une suggestion. La décision nous appartient.

Ali Rebeihi : Ça, on l’oublie souvent !

Aurélie Jean : On l’oublie souvent et je trouve que c’est intéressant de le dire parce que ça nous permet de nous positionner par rapport à ces algorithmes qui nous donnent des suggestions. Et je le dis d’autant plus que dans le cas de la voiture autonome, comme vous l’avez dit, c’est un peu une décision unilatérale, mais c’est vrai qu’il y a beaucoup de choses où on a l’impression qu’on n’a pas le choix alors qu’en fait on l’a. Par exemple lorsque vous parliez des applications de rencontre, l’application de rencontre vous donne une suggestion d’individu, ça ne veut pas dire que c’est la bonne personne !

Ali Rebeihi : Est-ce que nous sommes atteints d’anti-algorithmie primaire, dans le grand public, dans les médias ?

Aurélie Jean : Je n’espère pas sinon mon métier est en danger ! Plus sérieusement, je pense que les gens ont peur de cette discipline parce qu’ils ne la comprennent pas et parce que, aussi, il y a beaucoup de gens qui créent des fantasmes autour de ces entités mathématiques : on imagine que l’algorithme va tout remplacer, l’algorithme va pouvoir avoir des émotions, va pouvoir avoir une âme. Non, ce n’est pas possible, c’est impossible. Le vrai discours est un peu moins sexy, peut-être, mais en tout cas vrai et beaucoup plus rationnel.

Ali Rebeihi : Nous avons peur parce que nous n’avons pas la culture scientifique suffisante, peut-être, dans le grand public, pour comprendre tous ces grands enjeux ?

Aurélie Jean : Oui. C’est le cas de beaucoup de sujets, en fait, ce n’est pas propre qu'aux algorithmes. Lorsqu’on a commencé à travailler sur la génétique, par exemple, ça a créé beaucoup de fantasmes et ça a fait très peur, alors qu’aujourd’hui on fait beaucoup de choses en génétique et ça nous parait normal. Je pense que c’est vraiment essayer de démystifier, essayer aussi de montrer les vraies menaces. Vous parliez de biais algorithmiques, c’est une vraie menace que les gens commencent à connaître, mais en fait ça fait longtemps, très longtemps qu’on travaille dessus.

Ali Rebeihi : Expliquez en deux mots parce qu’on va y revenir largement dans l’émission. Qu’est-ce qu’un biais algorithmique ?

Aurélie Jean : En fait, comme vous l’avez très bien dit, on a tous des biais cognitifs dus à notre histoire, notre langue, notre religion, peu importe, notre culture, et typiquement on a tendance à introduire des biais cognitifs dans les choses qu’on développe. Ça peut être un texte, ça peut être un produit tangible, donc ça peut être aussi un algorithme. En fait, on transfère nos propres biais cognitifs aux algorithmes et ça devient des biais algorithmiques qui ont comme conséquence, comme vous l’avez très bien dit, par exemple d’écarter une partie de la population de l’usage de l’outil et c’est le cas des premiers algorithmes de reconnaissance faciale qui ne reconnaissaient pas les peaux noires.

Ali Rebeihi : Je m’adresse au docteur en psychologie cognitive. C’est quoi un biais cognitif ? Donnez-nous un exemple de biais cognitif.

Jean-François Bonnefon : Par exemple, on peut avoir le biais de ne chercher que des informations qui nous confortent dans ce que nous croyons déjà et éviter des informations qui nous mettent en doute. Un biais cognitif c’est un processus psychologique qui nous pousse toujours dans la même direction pour des résultats qui sont suboptimaux.

Ali Rebeihi : Avez-vous peur des algorithmes ou alors pas du tout ? N’hésitez pas à nous appeler, à poser toutes vos questions au 01 45 24 7000.
Alexia Rivière, Julia Macarez et Clément Martin m’ont aidé à préparer cette émission réalisée par Claire Destacamp. Belle journée à l’écoute de France Inter.

Pause musicale : Aline par Christophe.

Ali Rebeihi : Christophe interprétait em>Aline.

Voix off : « Je pense avoir trouvé l’algorithme pour se faire des amis. – Arrête il n’y a pas d’algo pour se faire des amis. – Allô ! Tu as peut-être le temps de boire une boisson chaude, les plus appréciées sont le café ou le chocolat. »
Ali Rebeihi sur France Inter.

Ali Rebeihi : 10 heures 21. Faut-il avoir peur des algorithmes ?, c’est notre thème ce matin avec la docteure en sciences Aurélie Jean et le chercheur en psychologie cognitive Jean-François Bonnefon. Standard ouvert au 01 45 24 7000.
Je vous verrais bien, Aurélie Jean, dans la bande de The Big Bang Theory !

Aurélie Jean : Oui, carrément. Mais je me reconnais pas mal sur le côté un peu nerdy, j’avoue.

Ali Rebeihi : Un peu geek.

Aurélie Jean : Oui.

Ali Rebeihi : La mathématicienne Cathy O'Neil1, qui est venue dans cette émission, nous a dit que les algorithmes ne sont pas nécessairement équitables car c’est la personne qui les conçoit qui définit leur fonctionnement et leurs résultats. Aurélie Jean, rappelez-nous ce qu’est un biais algorithmique pour ceux qui nous prennent en route. C’est ça un biais algorithmique ? C’est ce que nous dit Cathy O'Neil ?

Aurélie Jean : En fait, ce que dit Cathy O'Neil, c’est qu’on a tendance à croire qu’un algorithme est objectif, dû à l’impartialité des mathématiques, mais c’est oublier, en fait, que l’algorithme est développé par un humain, par des humains, que ce soit dans les critères explicitement définis par l'humain, mais ça peut aussi être le choix des données sur lequel le calibrer ou l’entraîner dans le cas de critères implicites. C’est vrai, pour reprendre ce qu’est un biais algorithmique, que nous on a des biais cognitifs, on va les transférer à l’algorithme qu’on écrit et, comme l’a dit Jean-François, on peut, en fait, sans s’en rendre compte, écarter des gens, ne pas penser à certaines données, à certains individus, à certains scénarios lorsqu’on écrit l’algorithme.

Ali Rebeihi : On va prendre des exemples concrets. Vous vous rendez compte de l’importance des biais algorithmiques quand un chercheur vous demande d’utiliser les algorithmes pour comprendre la croissance du muscle cardiaque en laboratoire. Racontez-nous.

Aurélie Jean : C’était en 2009, exactement, j’étais à l’université d’État de Pennsylvanie où j’ai commencé ma recherche avec le professeur Joshua Entsminger qui est maintenant un très bon ami à moi. Je développais des modèles et des algos pour comprendre la croissance d’un muscle cardiaque en laboratoire, pour aller remplacer un muscle malade après un infarctus. C’est passionnant, ça s’appelle l’ingénierie des tissus pour les gens qui veulent savoir. Je l’écris dans le bouquin, mon professeur me dit : « Aurélie, tu ne peux pas faire un modèle là-dessus si tu n’as jamais disséqué un cœur et compris comment ça fonctionne. » Du coup on part tous les deux disséquer un cœur, c’est génial et, à un moment donné, durant le processus, il me dit : « Au fait, est-ce que c’est possible d’avoir des biais dans des algos ? » J’ai commencé à rire en lui disant « eh bien non, ce sont des maths, il ne peut pas y avoir de biais ! » Il me dit : « Mais tu sais, moi, quand je fais mes études cliniques, il y a des biais. » Du coup on commence à partir sur cette conversation et c’est là, en fait, où j’ai entendu le mot « biais algorithmique » et que j’ai compris que c’était possible de mettre des biais dans mes algos pour plein de raisons. Déjà parce que, comme me le disait mon professeur : « Tu vois le monde avec ton propre angle. Tu te bases sur des données dans des papiers scientifiques médicaux qui sont peut-être biaisées, sur des études biaisées, sur des expérimentations biaisées, donc il y a plein de manières de biaiser in fine ton algorithme, donc il faut avoir un œil critique comme le ferait un médecin ou un chercheur en médecine sur ses expériences. »

Ali Rebeihi : Le biais algorithmique peut provenir également de la collecte des données. Prenons un autre exemple : lors de votre simulation numérique des traumatismes crâniens – vous travaillez sur ce domaine-là – vous collectez des données sur les dimensions moyennes de têtes humaines et inconsciemment votre standard c’est quoi ?

Aurélie Jean : En fait c’est moi. Pas complètement parce que j’étais assez fière, à l’époque j’étais au MIT et je devais rechercher les données morphologiques, comme vous l’avez dit, du crâne humain, donc j’étais très fière de moi parce que, en plus je suis assez féministe, j’ai cherché des femmes, des hommes, des plus vieux, des moins vieux, des jeunes, des enfants, des Afro-Américains, des Blancs, des gens d’Amérique du Sud, j’étais hyper-fière de moi en disant « je sais faire, je sais prendre en compte la diversité étant moi-même issue d’une minorité dans mon milieu ». En fait, mon directeur de recherche, le professeur Raul Radovitzky, me dit : « Aurélie, tu as oublié une population ». Je dis : « Mais non, pas du tout ! » Il me fait : « Si, si, les populations asiatiques ont des morphologies très différentes — et je dis — C’est marrant parce que moi je pensais qu’ils avaient des morphologies comme les nôtres, sous-entendu caucasiens », c’est quand même dingue !

Ali Rebeihi : Exactement, l’homme blanc occidental.

Aurélie Jean : Il me dit : « Mais non, pas du tout, il faut que tu les considères aussi. »

Ali Rebeihi : Et vous rectifiez le tir.

Aurélie Jean : Et je rectifie le tir. Après, savoir si ça aurait eu une influence sur mon algorithme ou la réponse de mon algorithme, je ne sais pas. En tout cas on a considéré ça quand on a ensuite écrit l’algorithme et le modèle pour justement essayer de calibrer la loi sur des données morphologiques de crânes humains qui sont une protection naturelle pour notre cerveau. C’est vrai que je suis plutôt contente et j’en parle dans le livre, parce que j’ai fait une erreur, j’ai été rattrapée au vol par quelqu’un qui avait un meilleur background que moi dans le milieu médical. Et, au final, c’est vrai que j’avais écrit une loi pour estimer les risques de traumatisme crânien d’un humain en fonction du choc qu’il avait reçu à la tête, peut-être qu’en ne considérant pas les populations asiatiques, peut-être que ma loi n’aurait pas marché sur les populations asiatiques. On ne le saura jamais, mais c’est important de se dire qu’on essaye d’être le plus représentatif possible dans les données qu’on utilise pour calibrer ou entraîner un algorithme.

Ali Rebeihi : Un autre point qui peut biaiser, fausser l’algorithme, c’est l’origine des paramètres utilisés.

Aurélie Jean : Oui, l’origine des paramètres utilisés, sous-entendu les critères qu’on rentre dans l’algorithme. Pour que les gens comprennent, je classe les algorithmes en deux familles :
la famille explicite c’est lié à la symbolique. L’intelligence artificielle symbolique c’est lorsqu’on va définir entièrement à la main l’algorithme, les équations mathématiques, les critères, les conditions, les hypothèses ;
et puis tout ce qui est implicite, à savoir tout ce qui est lié aux techniques d’apprentissage où l’algorithme va créer lui-même ses critères, donc implicitement, en étant entraîné sur des données.
Donc ça vient aussi de ça, c’est-à-dire que quand écrit soi-même l’algorithme, on peut aussi mettre des critères qui sont biaisés parce qu’on voit le monde sous notre propre prisme, donc sous un prisme biaisé puisqu’on est humain.

Ali Rebeihi : Pour bien comprendre ce qu’est un biais algorithme implicite, prenons peut-être l’exemple d’un algorithme qui chercherait à reconnaître un chien sur une photo.

Aurélie Jean : Très bon exemple que je donne dans le livre. C’est bien, vous avez bien lu le livre !
Dans le livre je donne l’exemple du chien sur une photo. Il y a deux manières de faire : la première c’est de se dire « on va décrire mathématiquement ce qu’est un chien sur une photo », mais on se rend compte que ça ne marche pas très bien, c’est compliqué. Du coup on fait la méthode plus efficace et plus rapide qui est de dire « on va entraîner l’algorithme sur des photos qui contiennent des chiens ou pas, puis on va le rectifier, on va le superviser et, au final, l’algorithme va être assez efficace pour reconnaître un chien sur une photo ». Ce qui va se passer c’est que, justement, on va donner plein de photos à l’algorithme et implicitement – je dis implicitement parce qu’en fait ce n’est jamais défini explicitement on a du mal à retrouver ces critères après, a posteriori, dans les invariants de réseau neuronal entre autres si on prend les termes techniques – ce qui se passe c’est que l’algorithme va définir des critères implicitement pour identifier, ou pas, un chien sur une photo. Ce qui est très intéressant c’est que l’algorithme ne sait pas pour autant décrire ce qu’est un chien, par contre il va reconnaître, ou pas, un chien.

Ali Rebeihi : Jean-François Bonnefon, si on applique ça à la voiture sans conducteur ?

Jean-François Bonnefon : Bien sûr, la voiture sans conducteur va aussi être entraînée à reconnaître typiquement les différents usagers de la route, mais là on va plutôt passer du biais au dilemme. C’est-à-dire qu’on va moins s’intéresser au biais d’entraînement mais plus au fait que quand on crée un algorithme on lui donne un but. S’il n’y en a qu’un c’est assez facile, mais quand il y en a plusieurs, il va falloir qu’il arbitre entre ses buts. Et quand on ne peut pas les satisfaire tous à la fois, va se poser le problème du dilemme.

Ali Rebeihi : Il y a une forte responsabilité qui pèse sur les concepteurs d’algorithmes, Aurélie Jean ?

Aurélie Jean : Pas qu’eux, c’est-à-dire que c’est vrai que je dis, comme Cathy O'Neil, que les concepteurs ont une part de responsabilité, mais ce ne sont pas les seuls responsables.

Ali Rebeihi : Qui sont les autres responsables ?

Aurélie Jean : Tout le monde sur la chaîne d’un algorithme, c’est-à-dire les gens qui pensent à l’idée d’un modèle, l’idée de répondre à une question par un algorithme. Il y a les gens qui vont concevoir l’algorithme, les gens qui vont l’écrire, l’implémenter, le tester aussi ; les gens qui vont le marketer, donc vendre l’outil, et puis il y a des gens qui vont l’utiliser. Tous ces gens sur la chaîne de fonctionnement, de production, d’un algorithme ont, en fait, une part de responsabilité sur l’algorithme qu’ils développent, qu’ils pensent, qu’ils marketent, qu’ils vendent ou qu’ils utilisent. En fait c’est beaucoup plus compliqué et c’est vrai, c’est ce que je dis souvent, c’est-à-dire que nous, concepteurs, on doit travailler avec les gens du métier : par exemple, je n’aurais pas pu développer ce que j’ai fait si je n’avais pas travaillé avec des médecins. Encore aujourd’hui je fais de la recherche dans le domaine médical, si je n’étais pas entourée de médecins je ferais d’énormes bêtises et, de toutes façons, je ne saurais pas quoi faire pour être tout à fait honnête avec vous, pareil dans le domaine de la finance, et ces gens-là doivent aussi comprendre ce que je fais. Donc il y a vraiment un travail de collaboration et ça va très loin. Je considère que les gens, les entités, les entreprises qui vont développer des outils ont la responsabilité que les gens qui les utilisent les comprennent. Comme je dis beaucoup, les utilisateurs sont nos meilleurs ennemis. Pourquoi ? Parce qu’en fait ils vont nous aider à améliorer l’outil, donc il faut qu’ils comprennent ce qui se passe.
Pour la reconnaissance faciale, un exemple tout bête, il y a des distributeurs de savon qui reconnaissent la peau. En fait, il y a très longtemps, ces outils ne fonctionnaient pas sur les peaux noires. Les gens qui utilisaient ces machines, qui étaient Noirs et pour lesquels ça ne marchait pas, se sont juste dit « ça ne marche pas ». Ils ne se sont pas dit « tiens, il y a biais algorithmique, il y a un bug ». Or, si ces gens comprennent, ils vont pouvoir reconnaître le biais algorithmique très tôt, du coup on va tout de suite pouvoir le fixer si on arrive facilement à le fixer.

Ali Rebeihi : Jean-François Bonnefon, les concepteurs des algorithmes des voitures sans conducteur ont une sacrée responsabilité morale !

Jean-François Bonnefon : Oui. Encore une fois parce que ces algorithmes ont entre leurs mains la vie ou l’intégrité physique des utilisateurs, en effet.

Ali Rebeihi : Il faut concevoir des voitures sans conducteur qui devront, allez, je le dis vite, soit sacrifier le passager, soit le ou les piétons en cas d’accident. Et ça rappelle le célèbre problème du tramway. Racontez-nous ce fameux problème. Dans sa forme simplifiée, il faut imaginer un tramway sur le point d’écraser cinq personnes.

Jean-François Bonnefon : Le tramway est sur le point d’écraser cinq personnes, mais un être humain a la possibilité d’actionner un levier qui va, disons, dévier le tramway sur une autre voie, mais il se trouve qu’il y a une personne sur cette autre voie.

Ali Rebeihi : Qu’il n’aura pas le temps d’éviter.

Jean-François Bonnefon : Qu’il n’aura pas le temps d’éviter. La question c’est : est-ce qu’il est légitime de rediriger le tramway et de tuer une personne dans le but d’en sauver cinq ?

Ali Rebeihi : Là c’est une étude de l’esprit, ce problème du tramway c’est peu probable, sauf que la voiture sans conducteur rend réaliste et réalisable ce problème du tramway.

Jean-François Bonnefon : Elle le rend réaliste oui, même s’il faut toujours le dire, c’est un cas limite, totalement extrême, d’un problème qui est plus vaste et statistique qui est comment la voiture va distribuer le risque sur les différents usagers de la route, mais la forme, comme vous le dites, la plus frappante de ce problème-là, c’est son cas limite, le cas où vraiment la voiture a à décider de tuer un certain groupe de victimes ou un autre, dans une situation de crash inévitable.

Ali Rebeihi : C’est abusif de dire que dans les prochaines années l’algorithme de l’automobile sans conducteur décidera du sort soit des piétons soit des passagers de l’automobile ?

Jean-François Bonnefon : Décider, pour une voiture, c’est un peu l’anthropomorphiser, c’est sûr.

Ali Rebeihi : Je parle des algorithmes.

Jean-François Bonnefon : L’algorithme va faire ce qu’on lui a dit de faire. Il va optimiser la fonction qu’on lui a demandé d’optimiser. Ça veut dire qu’à un moment il y a des humains qui vont devoir dire qu’est-ce que nous souhaitons que l’algorithme fasse dans ces situations ?

Ali Rebeihi : Vous avez réalisé des études pour essayer de comprendre ce que les gens susceptibles d’acheter ces voitures attendent de ce genre d’automobile. Globalement, les individus souhaitent que les voitures sans conducteur puissent sacrifier leurs passagers pour sauver un plus grand nombre de piétons, mais ils ne veulent pas acheter une voiture qui pourrait les sacrifier eux-mêmes.

Jean-François Bonnefon : C’est cela et j’ai envie de dire que je les comprends. Ce n’est pas de l’hypocrisie. Je comprends bien que dans un monde idéal la voiture devrait faire le moins possible de victimes, donc, parfois, peut-être sacrifier son passager pour sauver dix piétons. Mais est-ce que j’ai envie de rouler dans une voiture comme ça moi-même ? Non, pas forcément, je comprends que c’est peut-être le meilleur des mondes, mais je n’ai pas envie de faire ce sacrifice-là moi-même. C’est complètement compréhensible et c’est, disons, une des formes de ce qu’on appelle en économie un dilemme social, c’est-à-dire que je comprends qu’il y a un monde idéal où tout le monde ferait cette action-là mais moi je n’ai pas très envie de la faire.

Ali Rebeihi : Et pourquoi ne pas laisser faire le hasard ?

Jean-François Bonnefon : Peut-être parce que le hasard c’est une façon de nous échapper, de ne pas prendre nos responsabilités. Il y a d’autres domaines, par exemple le don d’organes, où on se trouve dans cette situation : par exemple il n’y a pas assez de reins pour tous les gens qui les attendent, eh bien on ne fait pas une loterie, on prend nos responsabilités, on définit des critères pour les attribuer. Je n’ai jamais entendu quelqu’un me dire « il faut que les organes soient distribués par loterie. »

Ali Rebeihi : Ça peut freiner l’achat de ces voitures sans conducteur si la voiture sacrifie le passager au profit des piétons ?

Jean-François Bonnefon : Ça pourrait. Je ne sais pas trop ce qui pourrait se passer. On a eu un exemple, en particulier quand un cadre de Mercedes avait dit dans une interview : « Nos voitures privilégieront tout le temps la vie de leurs passagers aux dépens de celle des autres usagers. » On a envie de se dire que c’est peut-être séduisant pour les consommateurs potentiels de ces voitures, mais ils ont dû faire marche arrière en quelques jours après le scandale que ces propos ont déclenché. Les gens disaient : « Ah bon ? Ça veut dire que les riches possesseurs de Mercedes ont le droit de rouler sur tout le monde ? ». La publicité était tellement mauvaise pour Mercedes qu’ils ont été obligés de revenir sur cette parole-là.

Ali Rebeihi : Dans quelques instants on s’intéressera à la Moral Machine2 que vous avez cocréée, Jean-François Bonnefon, qui a connu un succès absolument extraordinaire. Vous la connaissez, Aurélie Jean, cette machine ?

Aurélie Jean : Oui, je l’ai testée moi-même.

Ali Rebeihi : On va expliquer tout à l’heure ce qu’est cette machine, vous me dites si je dis une bêtise, qui permet de collecter les préférences morales des gens, une base de données pour déterminer les algorithmes les plus acceptables pour les populations concernant la voiture sans conducteur.

Jean-François Bonnefon : Là vous avez utilisé le mot correct « les plus acceptables ». Ça ne veut pas dire qu’on dicte aux gouvernements ce qu’il faudrait faire ou aux constructeurs ce qu’il faudrait faire. On les informe juste de ce que la population juge le plus acceptable.

Ali Rebeihi : D’ailleurs vous présidez une commission auprès de la Commission européenne.

Jean-François Bonnefon : Oui, un groupe expert à la Commission européenne pour faire des suggestions sur la régulation de ce genre de situation.

Ali Rebeihi : De ce genre de voiture sans conducteur. On verra ça juste après la chronique « Pas son genre » de Giulia Foïs.

[Virgule sonore]

[Chronique « Pas son genre » de Giulia Foïs. La chronique n'est pas transcrite]

Ali Rebeihi : Grand bien vous fasse sur France Inter.

Ali Rebeihi : 10 heures 43 Faut-il avoir peur des algorithmes ? C’est notre thème ce matin avec la docteure en Science Aurélie Jean et le chercheur en psychologie cognitive Jean-François Bonnefon. Standard ouvert au 01 45 25 7000.

Voix off : C’est un accident qui pourrait remettre en cause la voiture Tesla. Équipée d’un système d’auto-pilote, nul besoin de tenir son volant pour conduire cette voiture. Mais le 7 mai dernier aux États-Unis un de ces modèles a été impliqué dans un violent accident. Le véhicule était sur lune autoroute à double sens quand soudain un poids lourd a voulu se rabattre. Ni l’auto-pilote ni le conducteur n’ont détecté la manœuvre.

« Il est allé beaucoup trop vite je ne l’ai pas vu. »

Dans cette vidéo filmée par le conducteur, l’impact avait déjà été évité. Selon l’automobiliste, c’est sa voiture qui lui aurait sauvé la vie.
Cet accident met la compagnie dans une situation très inconfortable alors que son patron avait, quelques semaines plus tôt, promis de révolutionner la conduite autonome : « Je peux vous dire avec confiance que dans trois ans la voiture pourra vous amener d’un point à l’autre sans que vous ne touchiez quelque chose. Vous pouvez dormir pendant tout ce temps. »

Ali Rebeihi : Extrait de CNEWS en 2016. Il s’agit là d’une voiture avec conducteur, dotée d’un pilotage automatique. La voiture sans conducteur fascine et effraie à la fois. Jean-François Bonnefon, je rappelle que vous publiez La voiture qui en savait trop. L’intelligence artificielle a-t-elle une morale ?

Jean-François Bonnefon : Oui, c’est un exemple fascinant parce que c’est un objet qu’on a eu dans nos vies depuis longtemps et qui, tout à coup, change de statut.

Ali Rebeihi : La voiture sans conducteur est un objet de science-fiction et ça va devenir réalité.

Jean-François Bonnefon : Oui. Peut-être au sens où Elon Musk en parlait là : la voiture qui va vous amener de n’importe quel point A à n’importe quel point B sans que vous ne touchiez jamais un volant, je ne sais pas si on y arrivera. En tout cas, dans certaines conditions, une voiture qui se conduit de façon parfaitement autonome, oui, on y arrive.

Ali Rebeihi : Les algorithmes des voitures sans conducteur vont nous confronter à des choix moraux très importants. Vous avez conçu, Jean-François Bonnefon, une machine qui a obtenu un succès planétaire, la Moral Machine. Je crois qu’il y a eu combien ? 100 millions de personnes qui ont testé cette Moral Machine ?

Jean-François Bonnefon : 100 millions de réponses.

Ali Rebeihi : De réponses.

Jean-François Bonnefon : Bien sûr. Certaines personnes jouent longtemps, donnent plein de réponses, mais on a probablement plus de 10 millions de personnes maintenant.

Ali Rebeihi : Cette Moral Machine permet de collecter les préférences morales des gens au volant d’une voiture sans conducteur, évidemment c’est virtuel. C’est une base de données pour déterminer les algorithmes les plus acceptables pour les populations ? C’est ça ?

Jean-François Bonnefon : Oui. Au sens où la Machine Morale vous donne systématiquement le choix entre plusieurs accidents. La voiture autonome va s’écraser et va faire des victimes, mais vous avez, à chaque fois, la possibilité de choisir ces victimes. Grâce à la masse de données que nous obtenons avec ce site nous pouvons tester des situations extrêmement complexes et extraire les préférences des gens selon de multiples dimensions.

Ali Rebeihi : Pouvez-vous donner un exemple ? Je suis au volant de cette voiture sans conducteur, je ne suis pas au volant, je suis dans cette voiture sans conducteur, quelles sont, par exemple, les options ?

Jean-François Bonnefon : Quand nous avions commencé à travailler sur ce sujet, nous nous contentions de situations extrêmement simples, en disant « il y a une personne à gauche et deux personnes à droite, qu’est-ce que la voiture devrait faire ? » C’était un peu limité. Dans la Machine Morale nous avons pu insérer des millions de situations du type « en face de moi il y a une femme enceinte et deux grand-mères ; de l’autre côté il y a deux petites filles qui traversent au rouge, qu’est-ce que la voiture devrait faire ? »

Ali Rebeihi : Quel est le consensus moral que vous avez pu recueillir dans vos recherches ? Quelles sont d’abord, peut-être, les dimensions morales explorées par cette machine ?

Jean-François Bonnefon : Je ne vais peut-être pas toutes les citer parce qu’il y en a neuf.

Ali Rebeihi : Je vais les citer, elles sont page 60 de votre livre :

  • 1. Le nombre de personnages : préférez-vous sauver le groupe le plus nombreux ?
  • 2. Le sexe des personnages : préférez-vous sauver les hommes ou les femmes ?
  • 3. L’âge : préférez-vous épargner les bébés, les enfants, les adultes ou les personnes âgées ?
  • 4. L’état de santé : préférez-vous sauver des personnes en bonne forme physique ?
  • 5. Le statut social : préférez-vous épargner des individus au statut social plus élevé ?
  • 6. L’espèce : préférez-vous sauver les humains ou les animaux ?
  • 7. La situation sur la route : préférez-vous sauver les passagers ou les piétons ?
  • 8. La légalité : préférez-vous sauver les piétons qui traversent légalement ou sacrifier ceux qui traversent illégalement ? C’est ce que je ferais ! Non, je plaisante !
  • 9. Le statu quo : préférez-vous ne rien faire et laisser la voiture continuer tout droit plutôt que de la faire dévier ?

Voilà les neuf dimensions morales que vous avez soumises à la sagacité des internautes. Qu’est-ce qui se dégage ?

Jean-François Bonnefon : Ce qui se dégage c’est déjà un grand top 3, très clair : les humains plutôt que les animaux.

Ali Rebeihi : Ouf !

Jean-François Bonnefon : Il y a des gens qui pourraient ne pas être d’accord.
Le nombre de personnes, plus plutôt que moins, et puis l’âge avec une forte préférence pour prioriser la sécurité des enfants.
Ensuite, on va rentrer dans des choses qui sont moins fortes et nettement plus controversées : vous avez parlé du statut social. Les gens préfèrent sacrifier les sans-abri dans les scénarios de Moral Machine, ce qui est un paramètre qu’on nous a énormément reproché pendant tout le temps où on a collecté ces données. On nous disait : « Pourquoi est-ce que vous avez mis un sans-abri dans ces histoires ? Déjà les voitures ne les reconnaîtront pas et puis c’est moralement répugnant, même de poser la question. » Ce qu’on voulait c’était précisément avoir un exemple où on s’attendait à ce que les gens sacrifient les sans-abris et on allait pouvoir dire « regardez, voilà un bon exemple de pourquoi on ne peut pas suivre aveuglément les choix que font les gens dans Moral Machine. »

Ali Rebeihi : On vous a accusés d’encourager la discrimination et d’autres vous ont reproché l’absence de certaines caractéristiques comme l’origine ethnique ou la religion.

Jean-François Bonnefon : Exactement. C’est un choix qu’on avait fait très tôt, je crois même dans le premier quart d’heure. On est dans une boulangerie à Cambridge, on commence à imaginer Moral Machine et on commence à lister les dimensions qu’on va mettre dedans. Comme j’étais le seul blanc de l’équipe, quelqu’un suggère « est-ce qu’on met la couleur de peau dans Moral Machine ? » et tous ont dit : « Non, il ne faut pas qu’on fasse ça, parce que c’est la recette garantie pour que des gens s’organisent dans des coins pas très recommandables d’Internet et viennent en masse sur Moral Machine sacrifier les gens dont la couleur de peau ne leur plaît pas. »

Ali Rebeihi : Rappelez-nous à quoi peut servir cette Moral Machine ?

Jean-François Bonnefon : Je répète, le but ce n’est pas de dire aux gouvernements « regardez, nous avons les données dans votre pays, vous n’avez plus qu’à suivre les préférences de vos citoyens. » Pour nous, l’intérêt c’était de permettre aux gouvernements d’anticiper des frictions dans leur opinion, de dire, par exemple, « vous pouvez faire le choix de ne pas prioriser la sécurité des enfants, c’est un choix tout à fait légitime, mais préparez-vous à bien expliquer ça à votre population et ayez un plan en place pour le jour où une voiture autonome tuera un enfant alors qu’elle aurait pu l’éviter parce que là, vous allez avoir dans l’opinion publique un bâclage qui va être très fort. »

Ali Rebeihi : Est-ce que les variations morales varient beaucoup selon qu’on habite Toulouse, Jérusalem, Moscou ou Douala ?

Jean-François Bonnefon : Elles varient beaucoup mais en un sens un peu précis, c’est-à-dire qu’elles ne changent jamais de direction.

Ali Rebeihi : C’est-à-dire ?

Jean-François Bonnefon : Quand je dis que les gens préfèrent sauver le plus grand nombre, ils préfèrent sauver le plus grand nombre dans tous les pays. Quand je dis que les gens préfèrent sauver les enfants, ils préfèrent sauver les enfants dans tous les pays. Donc la direction reste toujours la même, par contre il y a de grosses variations dans la force des préférences. Par exemple, la force de la préférence pour sauver les enfants est beaucoup plus élevée dans le monde occidental que dans les pays d’Asie ou du Moyen-Orient où la préférence pour sauver les enfants versus les personnes âgées commence à s’estomper.

Ali Rebeihi : Aurélie Jean, sur cette Moral Machine ? Vous avez publié un article.

Aurélie Jean : On avait testé avec le professeur Esposito, Terence Tse et Joshua Entsminger. On avait travaillé, on avait testé la Moral Machine il y a deux ans, je crois. Moi j’avais adoré. C’est embarrassant.

Ali Rebeihi : C’est très embarrassant.

Aurélie Jean : C’est très embarrassant, mais je trouve que intéressant de faire ce genre de test. On avait fait un papier3. Justement, à partir de ce test, on avait réfléchi à ce que voulait dire d’avoir la voiture autonome niveau 5, entièrement autonome, déployée dans le monde.

Ali Rebeihi : Ça veut dire quoi niveau 5 ?

Aurélie Jean : Niveau 5 c’est l’autonomie complète.

Ali Rebeihi : Totale.

Aurélie Jean : C’est-à-dire qu’il n’y a pas besoin de volant, il n’y a pas de conducteur du tout, parce qu’il y a déjà des voitures autonomes aujourd’hui, semi-autonomes j’entends. Donc il y aavait plusieurs raisons pour lesquelles, c’était notre conclusion de l’article, on ne peut pas les déployer dans le monde. Une raison d’abord technique, comme le dit Luc Julia, avoir une voiture autonome niveau 5 qui passe la place de l’Étoile ce n’est pas possible, sur les autoroutes oui. Par contre, il y a des considérations morales, typiquement il y a dilemmes, des questions auxquelles on ne va pas répondre, même si, en fait, avec ces voitures autonomes on aurait au final moins d’accidents que si on a des voitures pas autonomes, en fait l’erreur machine n’est pas acceptée socialement donc ce n’est pas possible. Il y avait aussi des questions légales. C’est-à-dire que si vous avez une voiture qui est construite au Canada, qui traverse la frontière pour aller rouler aux États-Unis, légalement les lois ne sont pas les mêmes, la culture est différente, les algorithmes seront différents donc qu’est-ce qu’on fait ?

Ali Rebeihi : Aurélie Jean dit une chose très intéressante : les erreurs machine. Les erreurs des algorithmes sont peu acceptables socialement dans les populations. Alors que l’erreur humaine, bon ! Elle passe beaucoup mieux.

Jean-François Bonnefon : C’est vrai, c’est un effet qu’on remarque : les gens pardonnent plus leurs erreurs aux humains qu’aux algorithmes et franchement on peut comprendre. Quand un humain fait une erreur, je n’en tire pas la conclusion que cet humain va faire des erreurs tout le temps à l’avenir. Alors qu’un algorithme qui fait une erreur, je peux me dire que c’est peut-être un signal sur son comportement dans le futur.

Aurélie Jean : Et aussi les questions de responsabilité.

Ali Rebeihi : Qu’est-ce qui empêchera les constructeurs d’automobiles sans conducteur de programmer des algorithmes pour toujours sauver les passagers ?

Jean-François Bonnefon : Déjà la régulation. On peut s’attendre à ce que les gouvernements prennent leurs responsabilités et disent que si les voitures autonomes augmentent la sécurité sur la route, il faut qu’elles augmentent la sécurité de tout le monde, pas qu’elles augmentent la sécurité uniquement d’un certain groupe d’usagers aux dépens de celle des autres. Je pense que c’est quand même une direction qu’on va prendre. Il y a aussi la très mauvaise publicité. Le marché des voitures autonomes ce n’est quand même pas encore énorme comparé au marché des voitures conventionnelles et l’histoire de Mercedes nous l’apprend.

Ali Rebeihi : Rappelez-nous cette histoire.

Jean-François Bonnefon : Un cadre de Mercedes laisse entendre dans une interview que les Mercedes autonomes privilégieront toujours la vie de leurs passagers. Peut-être que c’est séduisant pour la très petite partie des clients de Mercedes qui sont intéressés par ces voitures autonomes, mais si c’est répugnant pour les 99 % qui achètent des Mercedes conventionnelles, alors ce n’est pas une opération commerciale géniale.

Ali Rebeihi : Jean-François Bonnefon, la Commission européenne vous a confié la présidence d’un groupe sur l’éthique des voitures sans conducteur. Qui compose ce groupe d’experts ? Les conclusions de ce groupe seront-elles impératives ?

Jean-François Bonnefon : Qui compose ? Une quinzaine de personnes qui viennent d’horizons différents. Il y a des juristes, des ingénieurs, des philosophes, un psychologue, moi-même. Maintenant est-ce que ses conclusions seront contraignantes ? Pas du tout. La régulation, la législation européenne c’est un long processus, là c’est un peu la première étape. C’est-à-dire qu’on réunit des experts qui essaient de débroussailler le terrain, de donner maintenant des pistes de régulation qui se veulent être les plus précises possible. Ensuite ça, ça va atterrir sur le bureau de quelqu’un avec dix autres rapports sur la question, qui va commencer à transformer ça possiblement en loi et ensuite, un processus très long est engagé..

Ali Rebeihi : Est-ce qu’on se rend assez compte de la révolution des voitures sans conducteur dans les dix, quinze ans qui viennent ?

Jean-François Bonnefon : Je pense que moi-même je ne m’en rends pas vraiment compte. C’est très difficile.

Ali Rebeihi : C’est comme si on avait posé la question sur Internet en 1995 ?

Jean-François Bonnefon : C’est ça. Parfois on imagine des scénarios : ce qui va se passer le jour où toutes les voitures seront autonomes ? Est-ce que ça veut dire qu’elles seront tellement confortables que tout le monde va vouloir prendre sa voiture, qu’on va se retrouver avec plus de voitures sur les routes, etc. ? En, fait la difficulté dans tous ces scénarios, c’est que même si tout le monde commençait à acheter une voiture autonome maintenant, ça prendrait encore 30 ans pour renouveler le parc. Donc on a vraiment beaucoup de temps avant d’arriver dans ces scénarios-là.

Ali Rebeihi : On s’est posé des questions morales avec les voitures sans conducteur.
Aurélie Jean, dans votre livre, vous regrettez que l’éthique manque cruellement dans la formation, dans les formations de scientifiques. Pour vous, il est urgent que les scientifiques deviennent ou redeviennent philosophes.

Aurélie Jean : Oui. Je le dis parce que par ma propre expérience, quand j’ai commencé à faire de la recherche dans le milieu médical, appliquée au milieu médical, j’ai eu, toujours parce que mon professeur, Joshua Entsminger, me l’avait conseillé, il m’avait dit : « Il faut que tu suives un cours d’éthique à l’université d’État de Pennsylvanie. » Donc j’ai suivi un cours de six mois d’éthique et je m’en sers encore aujourd’hui. Honnêtement, en tout cas en école doctorale, je pense que ça devrait être obligatoire.

Ali Rebeihi : Vous êtes d’abord avec ça, Jean-François Bonnefon ? Que l’éthique, la philosophie morale, soient obligatoires au niveau doctoral pour les scientifiques et après, bien sûr ?

Jean-François Bonnefon : C’est un toujours un coût d’opportunité, parce que pendant qu’ils font ça ils ne font pas autre chose, mais oui, c’est probablement une bonne idée. Oui.

Ali Rebeihi : Et dans la culture plus générale, la culture générale du 21e siècle, doit figurer, vous le dites à la fin de votre livre, la question du comment on passe du monde virtuel au monde réel et pour vous ça éviterait à la fois les amalgames, les discours catastrophistes.

Aurélie Jean : Et ça éviterait aussi les confusions, comme vous l’avez dit, c’est-à-dire qu’il y a un objet qui nous sépare de ce monde virtuel, de ce monde réel, qui est l’algorithme, le modèle, on peut donner plein de noms. Il faut toujours prendre conscience, il ne faut pas oublier qu’il y a ce miroir, il ne faut pas oublier qu’il y a cet algorithme, donc comprendre ce qu’il fait. En fait, au fur et à mesure du temps, ces deux mondes vont être de plus en plus similaires, donc il ne faut pas se tromper. Je donne l’exemple de la machine, du robot qui va vous dire « je t’aime », ça ne veut pas dire qu’il vous aime ; là, le miroir devient flou en fait.

Ali Rebeihi : Jean-François Bonnefon, un mot de conclusion.

Jean-François Bonnefon : Je crois que là il va falloir prendre nos responsabilités. C’est vrai que c’est important d’éduquer toute la population, de sensibiliser aux problèmes d'éthique des algorithmes parce que ce sont des choix qu’on ne peut pas laisser aux constructeurs ou même entièrement aux régulateurs, il va falloir que tout le monde y prenne part.

Ali Rebeihi : Pour vous, Aurélie Jean, l’une des grandes opportunités de la révolution algorithmique que nous sommes en train de vivre c’est qu’elle va nous obliger à miser sur ce qu’il y a de plus humain en nous et sur notre créativité.

Aurélie Jean : Je suis complètement d’accord.

Ali Rebeihi : Vous êtes très optimiste !

Aurélie Jean : Non, parce que je parle aussi de menace dans le livre, je suis quand même assez réaliste, mais c’est vrai que je pense que c’est une belle révolution qui nous est offerte à savoir se concentrer sur les choses que nous seuls pouvons faire et surtout comprendre que même si un algorithme peut faire des choses, ça ne veut pas dire qu’on le laissera faire.

Ali Rebeihi : Quelle est la principale menace qui vous effraie et à laquelle il faut que nous tous, citoyens, soyons vraiment attentifs ?

Aurélie Jean : C’est la perte de cohésion sociale due à un mauvais usage des algorithmes ou simplement à des discriminations technologiques propres aux biais algorithmiques.

Ali Rebeihi : J’aimerais terminer avec ces mots du chercheur en intelligence artificielle Antoine Bordes.

Aurélie Jean : C’est un de mes amis.

Ali Rebeihi : « Il faut distinguer ce que l’intelligence artificielle sait faire de ce qu’elle ne sait pas encore faire et de ce qu’elle ne saura jamais. »
Merci beaucoup Aurélie Jean. Merci pour votre livre De l’autre côté de la machine. Voyage d’une scientifique au pays des algorithmes, c’est publié aux Éditions de l’Observatoire.
Je recommande également votre livre, Jean-François Bonnefon La voiture qui en savait trop. L’intelligence artificielle a-t-elle une morale ?, c’est publié chez HumenSciences.

Demain nous vous attendons nombreux au Palais des Festivals et des Congrès de Cannes à l’occasion du Festival international des Jeux, émission en direct et en public. On s’intéressera aux bienfaits des jeux de société. Nous vous attendons dès 9 heures et demie au Palais des Festivals et des Congrès à Cannes.

de_crevoisier.png LE-ROUTEUR-WIFI.COM

VPN : Pourquoi tout le monde en parle en ce moment ?

Le 30 July 2020 à 14:28:08

Si vous ne s’avez pas ce qu’est un VPN, il s’agit, comme son nom l’indique, d’un réseau privé virtuel (Virtual Private Network). C’est-à-dire, qu’en paramétrant une connexion VPN sur votre appareil, ce dernier va rejoindre un réseau privé (comme celui formé par votre box et vos appareils chez vous), de manière virtuelle. Ainsi, vos adresses IP publiques et privées vont changer. Votre adresse IP publique va devenir celle du serveur VPN, et votre adresse IP privée, l’une de celle du réseau privé virtuel.

Les avantages sont nombreux, pour faire apparaitre votre IP dans le pays où se trouve le serveur par exemple, ou bien pour sécuriser vos données puisque dans un VPN les échanges de données entre le serveur et le client sont chiffrées. Une autre chose intéressante avec les VPN, c’est que comme vous faites, même à distance, partie du réseau local, vous pouvez accéder au contenu dudit réseau local.

Par exemple, j’ai chez moi mon propre serveur VPN, depuis mon smartphone, quand je ne suis pas chez moi, je peux me connecter à ce VPN et ainsi, pouvoir accéder aux images, films ou musiques qui se trouvent sur mon NAS. Autre exemple de cette utilisation, j’ai paramétré certaines de mes applications en ligne, comme mon application qui me sert à facturer mes clients, pour qu’elles ne soient accessibles que depuis certaines adresses IP. Bien entendu, cela dans un souci de sécurité. En étant connecté à mon VPN, je peux donc accéder à ces applications même si je ne suis pas chez moi.

Ok maintenant, on sait ce qu’est un VPN, mais alors pourquoi en parle-t-on autant en ce moment. Et bien en réalité, les facteurs sont nombreux.

Il faut distinguer deux « sortes » de VPN. Les VPN privés ou d’entreprise, qui sont utilisés pour sécuriser les données et accéder à du contenu local (côté serveur). Et les VPN commerciaux, qui sont plutôt utilisés pour délocaliser votre adresse IP en plus de sécuriser les échanges de données.

Pourquoi on en parle ?

Le télétravail

Première explication logique dans la présence omniprésente de ce terme, le COVID-19. La pandémie a entrainé le confinement, le confinement a conduit au télétravail, le télétravail implique, pour beaucoup d’entreprise, l’usage d’un VPN.

Alors, peut-être que vous êtes en télétravail et que vous n’utilisez pas de VPN, mais cela dépend de la taille de votre entreprise. C’est certains que si les employés de la petite entreprise de services du coin sont partis travaillés chez eux avec une clé USB dans la poche, ce n’est pas le cas des travailleurs des plus grosses structures.

Simplement car les plus grosses entreprises ont un volume de données plus important, et aussi car elles ont un niveau d’exigence plus important en matière de sécurité. De chez vous, en étant connecté au VPN de l’entreprise, vous avez ainsi accès à l’intégralité des documents de l’entreprise, à l’intégralité de ses logiciels etc… C’est comme si vous étiez au bureau, sauf que vous pouvez travailler en slip ! De plus, certaines de ces entreprises sont particulièrement regardante en matière de sécurité. L’usage d’un VPN permet de chiffrer vos échanges entre chez vous et les serveurs de la société, ce qui est un gros plus.  Je vais vous raconter une anecdote. Il y a quelques années, je travaillais pour une entreprise japonaise, une grosse entreprise connue pour ses appareils photo et son matériel d’imagerie médicale. A cette époque, il n’y avait pas de coronavirus, et pourtant, pour accéder aux ressources de l’entreprise, il fallait impérativement, être connecté à son VPN, et s’identifier à l’aide de deux facteurs, un couple identifiant/mot de passe, et un token changeant toute les minutes…ce token était fourni par un porte clés comportant un petit écran que tous les employés recevaient en dotation. Aujourd’hui, on peut faire plus ou moins la même chose avec des applications comme Google authenticator, mais à l’époque c’était vraiment un niveau de sécurité important.

Bref, donc, premier point, on parle beaucoup de VPN car il y a beaucoup de monde en télétravail.

Les gens sont beaucoup chez eux

Même or COVID, on parle de VPN, de plus en plus, notamment parce que pas mal de monde s’en sert pour regarder du contenu vidéo (entre autres) non accessible en France, mais aussi parce que bon nombre d’abonnés à des VPN le sont pour pouvoir télécharger films, séries, musiques et jeux vidéo sans être inquiétés.

Bon ben partant de là, c’est simple à comprendre, les gens sont plus chez eux, donc ils ont plus de temps libre, donc ils consomment plus de médias, donc ils cherchent à en télécharger, ou à en streamer plus…

La population prend conscience de certaines choses

Grâce à certaines campagnes de sensibilisation d’associations, ou grâce aux petites initiatives privées de certains sites internet (comme nous le faisons souvent), la population générale commence à savoir comment fonctionne le modèle économique d’Internet.

On ne va pas trop détailler ici car nous avons d’autres articles qui en parlent en détails, mais pour faire simple, la plupart des services gratuits d’internet reposent, soit sur l’argent de la publicité en diffusant cette dernière. Soit sur la collecte de données des utilisateurs du service gratuit en vue d’une revente des profils à des régies publicitaires, soit les deux.

En d’autres termes, et pour que tout le monde soit d’accord sur ce que nous sommes en train de dire. Quand un service est gratuit, un réseau social, une webmail, un jeu vidéo… c’est très probablement car ce service analyse vos données et revend ensuite à des régies publicitaires votre profil afin de pouvoir vous cerner et essayer de vous vendre des choses (dans le meilleur des cas). Ainsi quand vous pensez discuter avec vos amis sur Facebook, gratuitement, en réalité, vous payez le service et enrichissez la plateforme (d’une manière à peine concevable), en leur disant que vous vous appelez Jean-Michel Dupont, que vous avez 40 ans, que vous travaillez dans une agence de voyage, que vous avez trois enfants, que vous êtes marié depuis 15 ans, que vous aimez le billard, les jeux vidéos et Queen, que le dernier livre que vous avez lu est « Comment échapper à la surveillance en ligne », qu’en ce moment vous vous renseignez beaucoup sur l’achat d’un nouvel aspirateur, et que cet été vous partirez en vacances en Bretagne… Facebook sait aussi pour qui vous allez voter, parfois avant vous, si vous trompez votre conjoint ou conjointe, votre niveau d’étude, vos habitudes alimentaires etc…

Et donc, les gens, commencent un peu à en avoir assez de voir leur vie privée servir à enrichir des entreprises qu’ils ne connaissent pas, et sans leur consentement. Donc le VPN devient de plus en plus une solution pour apporter un peu de discrétion dans la vie de pas mal de monde. Avant que j’ai un commentaire par rapport à la dernière phrase, oui je sais que si on prend le temps de lire les conditions générales d’utilisation de ce genre de service, en fait on accepte que nos données soient collectées, mais peu de personnes les lisent.

Les internautes ne veulent pas être contraints

La liberté offerte par internet peut entrainer certains problèmes de société. Harcèlement numérique, appel à la haine, accès des plus jeunes à du contenu qu’ils ne devraient pas voir…

Ceci entrainant des législations afin de mettre fin ou de prévenir ces problèmes. Le truc c’est que certaines personnes ne veulent pas se soumettre à ces législations, ou du moins veulent pouvoir les contourner. Prenons un exemple, en ce moment l’ensemble de l’internet français discute de la possible mise en place d’une vérification de l’âge de l’internaute pour l’accès à du contenu pour adulte. En sois c’est une très bonne chose, mais qui dit vérification, dit quasi obligatoirement, connaissance de l’identité… Et certaines personnes majeures, utilisatrices de ce genre de service n’a pas vraiment envie de divulguer son identité, surtout pour concernant l’usage de ce genre de contenus, et on comprend facilement pourquoi.

On voit donc fleurir pas mal de discussions autour des VPN, en effet, même si cette loi finit par être mise en place en France, avec un VPN, il sera aisé, d’accéder à ce genre de contenu en localisant son adresse IP dans un autre pays.

Les VPN font leur pub

On aurait presque pu écrire un article que sur ce point, certains fournisseurs VPN sont omniprésents, à la télévision (un peu), mais surtout sur Youtube ! On ne voit que ça, avant chaque vidéo, pendant chaque vidéo, les Youtubers sont tous plus ou moins partenaires dès qu’ils atteignent un certain nombre d’abonnés. C’est devenu un phénomène tellement important que les Youtubers eux-mêmes en plaisantent.

Le matraquage (car là on peut parler de matraquage) est si important qu’il est peut probable qu’il reste encore des utilisateurs de Youtube qui ne sachent pas ce qu’est un VPN et à quoi ça sert…

Voilà donc la multitude de facteurs qui font que l’on parle beaucoup de VPN en ce moment, une pandémie mondiale qui oblige les gens à travailler de chez eux, des personnes qui ont plus de temps libre pour regarder des films et des séries, un ras le bol de l’utilisation des données persos, des lois qui n’arrangent pas tout le monde et une pub incessante. C’est un cocktail qui ne peut que porter le sujet au top des conversations !

The post VPN : Pourquoi tout le monde en parle en ce moment ? appeared first on Routeur-Wifi.

28 July 2020

de_crevoisier.png LE-ROUTEUR-WIFI.COM

VPN Gratuit : Faut-il foncer ou se méfier ?

Le 28 July 2020 à 13:08:16

Un VPN, pour Virtual Private Network, est un service permettant à un utilisateur de sécuriser sa connexion internet en faisant transiter ses données par un serveur tiers qui, en plus de fournir une adresse IP différente, chiffrera les données en temps réel dans le sens ascendant et descendant.

Ce serveur VPN par lequel circulent vos données peut être situé au bout de votre rue, ou à l’étranger. Si le serveur est dans un autre pays, il est alors également possible de bénéficier, en plus de la sécurisation des données, du déblocage des média du dit pays. Par exemple, en se connectant à un serveur VPN se trouvant aux USA, il est possible, en théorie, de pouvoir regarder le catalogue US de Netflix, ou bien de se connecter à Hulu.

Techniquement, au lieu de vous connecter à un site internet de manière directe, vous allez vous connecter à ce serveur VPN. C’est ensuite ce serveur, qui se connectera au site voulu et qui vous redistribuera les données émises, en les chiffrant. Le serveur VPN devient donc un maillon de votre connexion. On comprend donc facilement, que vos données transitant intégralement par ce serveur VPN une fois la connexion établie, il faut une certaine confiance en ce service.

>>Voir mon comparatif des meilleurs services VPN aujourd’hui<<

En pratique, à quoi ça sert ?

Un VPN peut servir à plusieurs choses. La première, qui est évidente, est de se protéger des menaces, par exemple de violation de la vie privée, en apportant un chiffrement fort à vos données transitant sur le réseau.

Comme nous l’avons évoqué, un VPN peut également servir à accéder à du contenu bloqué géographiquement. Suivant les droits de diffusion, certains contenus, souvent des vidéos, peuvent être réservés à certains pays. En se connectant à un serveur VPN situé dans le pays en question, comme le site internet détenteur de la vidéo convoitée verra une adresse IP du même pays, il serra possible de bénéficier de ce contenu.

Un VPN peut également permettre d’échapper à la censure gouvernementale. Certains pays cherchent à modérer (pour le moins !) l’accès qu’a sa population à Internet, ou à certains services le composant. Avec l’usage d’un VPN, il devient donc possible, dans ces pays, de pouvoir accéder aux contenus bloqués. Ainsi, en Chine, en Russie ou dans certains pays du Moyen Orient, beaucoup d’utilisateurs ont recours à des prestataires VPN pour échapper à la censure de leur pays.

Enfin, un VPN peut également être un moyen efficace de pouvoir contourner certaines législations. C’est particulièrement utilisé, par exemple, dans le monde du téléchargement afin de contourner les lois en vigueur concernant la protection des droits d’auteur. Prenons un exemple avec la France. Hadopi, surveille, par le biais des FAI, les utilisateurs s’adonnant au téléchargement par le protocole Bittorrent. En se connectant à un serveur VPN situé dans un pays où le téléchargement est toléré on contourne totalement cette limitation. Premièrement, parce que le pays tolère le téléchargement, et donc que le serveur VPN ne sera pas embêté par les autorités, et parce que les données transitant ensuite jusqu’à chez vous sont chiffrées. C’est-à-dire, que personne, même votre FAI ne peut savoir ce qui se passe sur votre ligne. La seule chose qui est visible, à ce moment, c’est que vous utilisez un VPN. Mais les autorités ne pourront pas savoir si vous téléchargez un film, si vous lisez un article sur Wikipédia ou si vous envoyez un email à votre grand-mère.

Donc si l’on résume, un serveur VPN est un ordinateur, pouvant être situé n’importe où dans le monde, et qui va servir de relais à votre connexion. Ce serveur, chiffrera vos données dans les deux sens, et c’est lui qui accédera aux sites que vous voulez consulter, c’est donc non plus votre adresse IP qui sera visible, mais la sienne. Cette adresse IP sera l’une de celle du pays dans lequel se situe ce serveur VPN.

On comprend donc, assez facilement que si le serveur VPN peut être un énorme atout dans la sécurisation de vos informations, il peut également être un danger énorme ! Tout est donc une question de confiance entre vous et le prestataire VPN.

Mode, usage et argent.

On ne peut que constater l’engouement qu’ont les prestataires VPN en ce moment, c’est un service qui entre progressivement dans la vie de pas mal de monde. La censure, les médias de plus en plus géo bloqués, l’envie d’échapper à l’utilisation non consentie des données personnelles, le téléchargement, la volonté des expatriés d’accéder aux contenus de leur pays… il y a de plus en plus de raison de vouloir localiser son adresse IP dans un autre pays, ou bien de vouloir chiffrer les données qui transitent sur sa ligne.

Mais un VPN, un bon VPN, c’est payant. Et oui, il faut un forfait pour pouvoir accéder aux serveurs du prestataire. Simplement car ce prestataire doit louer des serveurs un peu partout dans le monde, louer des adresses IP localisées dans différents pays, payer son staff technique, payer son service marketing, payer ses agents de support, payer ses impôts, payer le loyer de ses locaux… Un prestataire VPN, comme une autre entreprise de service a des frais.

Et comme pout tous les autres services d’internet, certains utilisateurs cherchent à ne pas payer. Aux prestataires VPN payants, se sont donc mêlés, depuis quelques temps, des prestataires proposant un accès gratuit à leurs serveurs.

Alors avant d’aller plus loin il faut noter quelques exceptions concernant les prestataires VPN gratuits. Certains VPN gratuits peuvent l’être sous condition, par exemple de bande passante, et n’exister que pour faire la promotion de leur version payante. Par exemple, un VPN gratuit, d’un grand prestataire, permettant d’utiliser le service avec une limitation de 2 Go par mois. Le prestataire espérant ainsi que ce produit d’appel permette de vendre des abonnements au service premium.

Il peut aussi exister des VPN gratuits émanant d’initiatives associative visant à protéger la vie privée. Ces VPN vivent dans de tels cas, de dons, ou bien des cotisations des membres de l’association.

Pour le reste des VPN gratuits, fuyez pauvre fou !

Comment une entreprise ayant des frais, évoluant dans un secteur très concurrentiel, peut-elle fournir un service gratuitement ?

Et bien tout simplement en vous le faisant payer, mais sans que cela se fasse via un virement bancaire ou un coup de carte de crédit. Comme on le dit souvent dans le milieu, « si c’est gratuit, c’est vous le produit. »

Les services VPN gratuits sont, dans leur immense majorité, soit malveillants, soit là pour revendre vos informations personnelles.

La revente d’informations à des fins publicitaires est un modèle économique discutable, dont la population commence seulement à prendre conscience. Comment l’une des entreprises les plus riche du monde, un GAFAM comme Faebook peut être aussi riche et puissante en ne vendant rien ou presque à ses utilisateurs, et en ne proposant qu’un site vous permettant de discuter avec vos amis, de faire des petits jeux avec eux ou de poster quelques photos ? Simplement pour une raison très simple, le site, et les divers autres services qui sont proposés aux utilisateurs n’est pas la réelle activité de Facebook… je sais ça peut être un choc… Non, sa réelle activité c’est d’analyser ce que vous faites en ligne, vos habitudes d’achat, les posts que vous likez, les sites que vous visitez. De créer un profil utilisateur avec ces données ainsi que votre sexe, votre âge, vos centres d’intérêt, votre localisation, votre nombre d’enfants… Et d’ensuite, revendre ce profil très complet à des régies publicitaires, c’est ça le vrai travail de Facebook, pas de vous faire jouer à Farm City, ou d’héberger vos photos gratuitement… (photos d’ailleurs analysées par un algorithme permettant de savoir par exemple où la photo a été prise, qui apparait dessus… pour étoffer encore votre profils).

Et bien les VPN gratuits font généralement la même chose, vous leur donnez l’autorisation, quasi explicite, pour peu que vous lisiez les conditions générales d’utilisation, de se servir de l’intégralité des données qui vont transiter par leurs serveurs. C’est encore plus grave qu’avec un service comme Facebook, puisque dans le cas d’un VPN, toutes vos données passent par le serveur… Ledit serveur a donc accès aux sites que vous avez visités, aux formulaires que vous avez remplis (nom, âge, adresse, numéro de téléphone, adresse email, sexe…), aux données non chiffrées comme par exemple au contenu de certains de vos emails… bref un accès total.

Donc, dans le meilleur des cas, le service de VPN gratuit va constituer des profils avec toutes ces données puis les revendre, c’est comme ça que vous payez, en réalité, votre abonnement.

Dans d’autres cas, ces VPN gratuits peuvent même avoir des desseins encore plus sombres. Certains espèrent pouvoir récupérer des mots de passe transitant par des connexions non chiffrées, ou bien ils peuvent aussi (ce que l’on voit beaucoup en ce moment) effectuer des redirections non souhaitées. Par exemple, vous pensez accéder au site de votre banque, mais en réalité, le VPN gratuit vous renvoi vers un faux site qui pourra alors s’emparer de vos identifiants. En gros, ce peut être un pourvoyeur de fishing. L’application servant à la connexion peut même effectuer d’autres actions sur votre machine, comme le transformer en PC zombie afin de l’inclure dans un botnet, ou bien encore en faire un relais de spam.

Enfin, il existe une autre catégorie de VPN gratuits, ceux qui ne vous veulent pas forcément de mal, mais qui sont simplement victime de leur manque de moyens, et qui, de ce fait, sont de moins en moins fiable, faute de pouvoir bénéficier d’une infrastructure solide et d’un développement constant. Ces VPN utilisent alors d’anciens protocoles de connexion, ou d’autres briques logicielles ou matérielles obsolètes. Cela rend leur usage dangereux, en plus du fait, qu’ils peuvent également être là pour capter vos données.

Un article à charge ?

Vous pourriez vous dire, que l’auteur de ce texte est en partenariat avec un VPN payant (en plus certains arrosent très largement les influenceurs depuis quelques mois), et qu’il cherche à descendre la concurrence des VPN gratuits. Et qu’après tout, vous, vous utilisez un VPN gratuit depuis pas mal de temps sans aucun souci. Je vous dirais alors, sans aucun souci « visible ». Et puis je vous dirais aussi, que non, il n’y a pas de partenariat, mais plutôt une volonté d’information. D’ailleurs, informons, et je vais vous donner quelques exemples d’abus de VPN gratuits rendus publics.

En 2004, un service VPN gratuit, très connu et très utilisé, HOLA VPN, se fait épingler pour revendre la bande passante de ces utilisateurs à des réseaux mal intentionnés afin de mener des attaques DDOS. De plus, bien entendu, les données utilisateurs étaient également captées, compilées et revendues.

Betternet, un VPN gratuit très populaire pour les smartphones vend, quasi ouvertement, à des partenaires, la possibilité de suivre, en direct, les données de ces utilisateurs… sans que vous sachiez qui sont ces partenaires. Cela peut être une régie publicitaire, ou un collectif d’hackers, vous ne savez pas. Une étude du CSIRO (Commonwealth Scientific and Industrial Research) a montré que jusqu’à 14 de ces « partenaires » peuvent suivre les données d’un même utilisateur, en même temps…

Les VPN gratuits se présentant comme une extension de navigateur, sur Firefox ou Chrome, par exemple, ne sont, très souvent, même pas des VPN ! Ils ne prennent même pas la peine de changer réellement votre adresse IP pour une autre ! Ils captent juste vos données en comptant sur le manque d’information ou de compétence des utilisateurs pour qu’ils ne s’en rendent pas compte.

Les arnaques, VPN dangereux, faux VPN etc… pullulent sur le Play Store d’Android, a tel point que Google est obligé d’exclure plusieurs applications de ce type chaque mois. SuperVPN Free, TapVPN, Power VPN, Super VPN 2019, Wuma VPN-PRO… ce sont des dizaines, voir des centaines de « VPN » dangereux qui sont présent sur cette plateforme !

C’est bien simple, selon VirusTotal, 38% des applications VPN sur Smartphone sont positives à au moins un malware. Et on ne parle que des malwares là, pas des VPN profitant de vos données personnelles.

On a même déjà vu des applis VPN prétextant des mises à jour pour télécharger à votre insu des choses particulièrement dangereuses, comme par exemple des keyloggers, de petits logiciels permettant d’enregistrer vos frappes et de les envoyer on ne sait où. Là, même avec une connexion chiffrée, il est possible de récupérer vos identifiants et vos mots de passe.

Donc non, ce n’est pas un article à charge mais bien un simple constat, dans le meilleur des cas, les VPN gratuits utilisent vos données pour faire de l’argent sans que vous le sachiez, et dans le pire des cas, ils peuvent propager des virus, voler vos mots de passe, ou afficher de la pub en permanence sur votre appareil. Et souvent en plus de tout cela, ils remplissent mal leur fonction, en ne vous protégeant pas, ou mal faute à un chiffrement absent, mal implémenté ou obsolète.

Payer pour un VPN

Oui, pour obtenir un service digne de ce nom, qui vous respectera, vous et vos données, il faut payer. Mais les sommes sont tout à fait acceptables (à mon sens), vis-à-vis des services proposés, et vis-à-vis de la tranquillité d’esprit. En payant, 3, 4 ou 5 euros par mois, vous signez un contrat de confiance avec votre prestataire, qui de son côté prendra soin de vos données et vous donnera accès à bien plus de choses que le meilleur des VPN gratuits. Une application digne de ce nom, une possibilité de connexion à bien plus de pays, des services annexes comme un logiciel de protection de vos mots de passe, ou bien un DNS menteur vous permettant de regarder la TV étrangère sans connexion VPN…

Mon comparatif des meilleurs services VPN aujourd’hui

Il faut comprendre, pour conclure, que vouloir utiliser un VPN, c’est vouloir protéger ses données. Protéger ses données de la curiosité de son FAI, vouloir protéger ses données de la curiosité de l’état, de celle de certains sites… En optant pour un VPN gratuit, vos données seront à l’abris de la curiosité de ces acteurs, mais seront revendues à d’autres, à d’autres acteurs, que cette fois vous ne connaissez même pas.

Je pense très honnêtement, qu’à choisir entre ne pas utiliser de VPN, et utiliser un VPN gratuit, je préfère ne pas utiliser ce genre de service.

A titre perso, j’utilise quotidiennement un VPN, pour accéder aux catalogues étrangers de plateformes de streaming, pour naviguer sans que l’on se fasse de l’argent sur mon dos avec mes données, pour que certaines infos sensibles, personnelles ou professionnelles soient mieux protégées. Un VPN est un outil de liberté, de protection et quelque part un peu de rébellion, il ne faut pas, sous couvert d’économiser 3 euros par mois, qu’il devienne tout le contraire. Et dans l’optique où vous avez opté pour une VPN gratuit par manque de moyen, alors, il vaut mieux carrément arrêter d’en utiliser un. Très souvent, d’énormes offres de réduction sont proposées, au moment des départs en vacances, de Noël, de la journée de la sécurité en ligne… ces offres peuvent parfois diviser le prix de l’abonnement par deux ou plus. Attendez l’un de ces moments et optez pour un service de qualité et fiable, c’est vraiment le meilleur choix qui s’offre à vous.

The post VPN Gratuit : Faut-il foncer ou se méfier ? appeared first on Routeur-Wifi.

april.png Nouvelles April

La ligne rouge de la souveraineté numérique - Les Éclaireurs du numérique

Le 28 July 2020 à 09:38:32


Données concernant la santé, Privacy Icons

Titre : La ligne rouge de la souveraineté numérique
Intervenants : Tariq Krim - Fabrice Epelboin - Damien Douani - Bertrand Lenotre
Lieu : Les Éclaireurs du Numérique, podcast #49
Date : juin 2020
Durée : 33 min
Écouter le podcast
Licence de la transcription : Verbatim
Illustration : Données concernant la santé, Privacy Icons - Licence Creative Commons Attribution-NoDerivatives 4.0 International
NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Description

Les Éclaireurs du Numérique invitent Tariq Krim (Netvibes, CNNum, Jolicloud, Polite.one…) pour décrypter l'absence de souveraineté numérique française. Quelle histoire, quels choix, quelles erreurs, quels enjeux, quelles solutions ?

Transcription

Voix de Tariq Krim : En fait on paye la R&D des uns et des autres et en retour, ce qu’on a, c’est la radicalisation algorithmique, ce sont les fake news, c’est l’optimisation fiscale.

Voix off : Le podcast des Éclaireurs, les enjeux cachés d’Internet.

Bertrand Lenotre : Salut tout le monde et bienvenue dans un nouvel épisode, connectés et confinés, des Éclaireurs du Numérique avec, comme d’habitude, Damien Douani chez lui. Salut Damien.

Damien Douani : Salut. On a décidé de rester à l’intérieur, il fait trop chaud dehors.

Bertrand Lenotre : Avec Fabrice Epelboin chez lui. Salut Fabrice.

Fabrice Epelboin : Salut.

Bertrand Lenotre : Et avec un invité aujourd’hui, Tariq Krim, chez lui j’imagine. Salut Tariq.

Tariq Krim : Absolument. Bonjour.

Bertrand Lenotre : Tu vas bien ? Tout s’est bien passé pour toi pendant cette période ?

Tariq Krim : Ça va. C’était un peu compliqué, mais ça va.

Bertrand Lenotre : On va parler aujourd’hui de souveraineté numérique, une fois n’est pas coutume dans ce rendez-vous, et de la ligne rouge, a-t-elle été franchie récemment ? C’est un peu la question qu’on va se poser tous les quatre ensemble.
Tariq, tu es le fondateur de Netvibes1, ça ne nous rajeunit cette histoire-là ! Tu es le fondateur de Jolicloud2 qui était un environnement, fondateur également de la plateforme Polite3 pour la renaissance éthique de l’Internet autour d’un concept qu’on appelle le slow Web. On est bons jusque-là ?

Tariq Krim : Oui, absolument.

Bertrand Lenotre : Tu as remis en 2014 à Fleur Pellerin un rapport4 en tant que vice-président du Conseil national du numérique5, six recommandations pour améliorer la reconnaissance de la filière des développeurs. On va peut-être revenir là-dessus, parce que tout ce qui n’a pas été mis en place en 2014, finalement, aujourd’hui en on paye un tout petit peu le prix. Tu as été auditionné au Sénat par la commission d’enquête sur la souveraineté numérique, ça tombe bien, assez récemment, donc tu es quelqu’un qui connaît un peu l’histoire du Web depuis toujours.
Un mot sur StopCovid.

Tariq Krim : Je m’étais déjà un peu exprimé là-dessus dans la presse. Je pense que StopCovid6 c’est finalement une occasion ratée. Quand on pense que la relation numérique que les citoyens ont avec l’État sur les questions de santé est assez limitée – on peut appeler le 15, on peut éventuellement aller à l’hôpital aux urgences – et là on avait une opportunité d’imaginer quelque chose de bienveillant, d’accompagnateur et finalement, dès le départ, on a eu une forme d’ethos assez liée à la surveillance. On s’est focalisé là-dessus à tel point, d’ailleurs, que les journalistes n’ont parlé que ce ça : est-ce que StopCovid est une application de surveillance numérique ? Elle a été faite avec une certaine opacité, beaucoup de rebondissements et, au final, elle sort dans des conditions qui ne sont pas optimales.

Bertrand Lenotre : Qu’est-ce que vous en pensez Fabrice et Damien ?

Fabrice Epelboin : L’application StopCovid sert vraiment à quelque chose. C’est une belle opération de sensibilisation de la population à la problématique de la surveillance. Objectivement, ça ne servira guère qu’à cela. Et comme on pourra, ça a été montré aujourd’hui sur Twitter, injecter des faux numéros d’identification qu’on pourra, par ailleurs, facilement aller récupérer en s’approchant des cibles qui, elles, utilisent l’application, ça va être très rigolo.

Bertrand Lenotre : On va se marrer !

Fabrice Epelboin : Oui, je pense que ça va être une grande séance de rigolade, bien mieux qu’Hadopi.

Bertrand Lenotre : Damien ?

Damien Douani : Pour cette application je crois, de ce que j’ai vu, que Cédric O a fait le forcing autour de cette application, l’exécutif n’était pas super chaud parce qu’il avait suffisamment de choses à traiter. Pour moi c’est un peu la quintessence du solutionnisme technologique, mâtinée certainement de lobbying bien appuyé derrière, pour faire en sorte de développer une application qui, au pire si je puis dire, servira de brouillon à d’autres essais divers et variés ou, a minima, permettra déjà d’avoir rempli le carnet de commandes de Cap G entre autres, mais fera surtout en sorte, effectivement, qu’on ait la sensation de se dire « tiens on a fait comme les autres et, en plus de ça, nous avons pu bomber le torse, nous Français, nous avons développé une solution à la barbe des GAFAM, nous sommes trop des souverains sur notre numérique national ! »

Voix off de Cédric O : Nous avions le choix entre prendre une solution française, l’évaluation technique était très claire, qui ne nous permettait pas, et je le regrette, qui ne nous permettait pas de faire les recherches scientifiques que nous souhaitions faire sur les données de santé. Étant donné les retards européens dans le cloud, nous n’avions pas la possibilité de faire tourner des algorithmes d’intelligence artificielle aussi développés, sur infrastructure française, que sur infrastructure américaine.
Je pense que la seule leçon qu’il faut tirer de cela c’est que, dans l’après crise, la question du cloud pour toutes les entreprises et pour les institutions françaises est absolument extrêmement importante.

Bertrand Lenotre : Ça c’est qu’a dit Cédric O, ça ne concernait pas StopCovid, ça concernait le Health Data Hub qui est hébergé par des serveurs de Microsoft et traité sur des serveurs de Microsoft. StopCovid, même si ce n’est pas à l’intérieur du même process, vient aussi rejoindre les serveurs de Microsoft .
Est-ce que ça vous a fait bondir ce qui a été dit là par Cédric O sur l’incapacité française et européenne à offrir la moindre solution potentielle au cloud ? Tariq, le cloud ça te dit quelque chose, tu connais bien l’histoire.

Tariq Krim : Je dirais que ce qui m’a un peu choqué – la réponse à la même question qui était posée par la sénatrice Catherine Morin-Desailly qui avait déjà publié, il y a quelques années, un rapport7 sur la colonisation européenne par le monde numérique, donc qui connaît bien le sujet – déjà, ce qui m’a gêné, c’est qu’on se permet, en fait, de dénigrer les sociétés françaises dans le cadre de l’hémicycle. Dans un autre domaine, on ne se serait pas permis. Aucun ministre du transport ne se serait permis de dire « le TGV c’est nul par rapport aux solutions chinoises ou japonaises ou… ». Déjà il y avait quelque chose qui me rendait mal à l’aise.
Il dit clairement qu’il est à l’origine du choix de Microsoft, il donne d’ailleurs ses arguments qui sont exclusivement des arguments financiers. Et là se pose évidemment la question de la ligne rouge : est-ce que dans l’hébergement de données sur les GAFAM tout est permis ? Est-ce qu’on peut mettre les codes nucléaires sur le cloud de Microsoft ? La banque de France ? Apparemment il semblerait qu’il y ait une bisbille là-dessus, doit-elle tourner sur un cloud étranger ? Ça c’est la première chose.
La deuxième chose qui est assez embêtante c’est qu’on n’a pas l’impression que ce projet s’inscrit dans une vision à long terme. C’est-à-dire que les données de santé c’est un des assets, c’est un des éléments les plus importants de notre politique à venir. Ça aurait dû faire l’objet d’un débat, d’un projet de loi important, d’une organisation budgétaire, de s’assurer, de savoir qui, comment, quoi va se faire.
Et puis la troisième chose qui me gêne c’est qu’on a un peu l’impression qu’on est dans une sorte de logique de privatisation qui ne dit pas son nom. En gros, c’est à nous, enfin l’État, de supporter les coûts de la santé – payer les hôpitaux, le personnel soignant, la Sécurité sociale – et on va laisser des acteurs, certaines startups, bénéficier de la valeur créée, c’est-à-dire les données de santé, c’est-à-dire l’avenir. D’une certaine manière, je disais souvent que pour qu’on ait ces données, il y a des gens qui ont littéralement donné leur vie, c’est-à-dire que ces données proviennent des hôpitaux. D’ailleurs, on a fait passer en catimini un décret qui oblige de faire remonter ces données, en pleine pandémie. Moi je trouve ça assez inacceptable, c’est-à-dire que ça donne l’impression que ce projet est mal ficelé et surtout qu’on n’a pas pris conscience de l’importance que ça aura dans le futur. J’ai un peu l’impression qu’on brade un des assets les plus importants de l’État au mieux disant ou au plus offrant.

Bertrand Lenotre : Là on est vraiment en train de parler du Health Data Hub, le HDH pour les intimes, qui va regrouper toutes les données qui vont être captées partout, par tous les systèmes de santé en France, qui va les traiter et qui va pouvoir faire du prévisionnel avec du deep learning, concrètement sur ces data-là. On n’était pas capable, de faire ça en France selon Cédric O. On est bien d’accord que tout ce qui nous concerne au niveau de la santé sera sur des serveurs de Microsoft ? C’est bien ça l’enjeu, sur le futur ?

Fabrice Epelboin : C’est vraiment ça et je vais me permettre de ne pas être d’accord avec toi Tariq, moi je trouve ce projet plutôt bien ficelé. On commence à voir comment il a démarré. Il a démarré à travers un contrat cadre, pas exactement au même titre que les contrats cadres de l’Armée qui avait déjà cédé une partie de son infrastructure à Microsoft, malgré tout un contrat cadre avec Microsoft qui a fait ce qu’on appelle un proof of concept c’est-à-dire une espèce de produit minimum pour prouver qu’effectivement il y avait moyen de faire ce fameux hub et qui, ensuite, a continué à travailler, a développé tout ça, et forcément a un peu déterminé les caractéristiques des besoins. Ce qui fait que très rapidement on s’est – hasard, coïncidence, allez savoir ! – retrouvé dans des besoins qui étaient uniquement possibles avec Microsoft. Donc forcément, c’est une façon commode d’éliminer des acteurs comme OVH8 et, pour le coup, ça montre que tout ça est extrêmement bien ficelé.
Je trouve qu’ils ont bien géré ce projet, simplement, évidemment, ils ne l’ont pas forcément géré dans l’intérêt des Français, mais c’est une autre histoire !

Bertrand Lenotre : Je voudrais citer juste un tweet d’Octave Kabla qui s’est énervé, une fois n’est pas coutume, ce n’est pas l’habitude chez Octave Kabla qui est le patron, le créateur d’OVH, qui dit : « C’est la peur de faire confiance aux acteurs français de l’écosystème qui motive ce genre de décision. La solution existe toujours. Le lobbying de la religion Microsoft arrive à faire croire le contraire. C’est un combat, on va continuer, un jour on gagnera ensemble ». C’est une vraie déclaration à la fois d’intention et puis un constat d’échec total. C’est-à-dire qu’OVH a l’État contre lui et les entreprises françaises ont l’État contre elles.

Damien Douani : Je pense qu’il y a un truc qu’il faut voir c’est que toutes les boîtes comme Microsoft, IBM ou autres, ont une caractéristique que n’a peut-être pas OVH, je ne sais pas, je serais heureux d’en discuter avec Octave, Tariq pourra peut-être réagir là-dessus. Il y a ce que j’appelle la jurisprudence de ces boîtes, Microsoft, IBM ou autres. C’est-à-dire en gros, quand vous êtes un DSI, que vous êtes dans une entreprise, vous savez très bien que prendre un de ces acteurs ça vous met, on va dire, face à zéro problème. Autrement dit s’il y a un a souci vous direz « ah oui, mais j’ai pris du Microsoft ou de l’IBM ou du Oracle – ce que vous voulez – et ça devait marcher, il ne devait pas y avoir de problème ».
Je me demande si, quelque part au sein de l’État, il n’y a pas un peu cette logique de DSI, autrement dit « je prends le minimum possible de risques », sachant qu’en plus je suis convaincu que des gens comme Microsoft ou autres ont une très bonne force de frappe commerciale, un très bon enrobage de tout ça et de dire, en gros, si vous avez un problème on sera là pour vous, ne vous inquiétez pas. Je ne sais pas si OVH sait faire ça, mais je pense qu’il y a quand même ça derrière, en fond de tâche on va dire, au-delà des aspects lobbying ou autres, cet aspect, ce côté « on sera tranquilles », mais sans la compréhension d’un élément clef qui nous réunit aujourd’hui autour du micro qui est cette notion de souveraineté nationale, qui est le fait de se dire que ce n’est pas neutre de mettre des données sensibles sur des serveurs qui, même s’ils sont situés en Europe par exemple, font qu’ils sont dans les mains d’une société qui n’est pas forcément une société nationale ou européenne. Je pense que le point clef est là, le point de bascule est à cet endroit.

Fabrice Epelboin : En même temps il faut les comprendre, la souveraineté c’était du fascisme il y a encore trois mois.

Bertrand Lenotre : Le mélange des mots, le poids des mots, le choc des photons comme dirait l’autre, fait qu’on n’arrive pas à utiliser le mot souveraineté pour le numérique. C’est ça ?

Fabrice Epelboin : Je pense que c’était un concept sur lequel on pouvait aisément s’essuyer les pieds il y a encore très peu de temps jusqu’au jour où il nous a explosé à la gueule et qu'il est sorti de son pré carré habituel qui était l’extrême droite française. La souveraineté numérique n’a pas grand-chose à voir avec l’extrême droite française, mais, en dehors de cette petite bulle, c’est quand même une niche qui est très largement occupée par l’extrême droite française. Là elle s’impose à nous.

Bertrand Lenotre : Est-ce que quelque part on n’a pas une génération de fonctionnaires traumatisés par le fait que, pendant des années, on a développé des grands projets nationaux du style et Thomson et X.25 et le Minitel et le Plan Câble et plein de choses comme ça qui ont toutes fini à la poubelle en dépensant un fric monstre qui fait que, au final, ils se réfèrent aujourd’hui au fait de se dire « mieux vaut acheter des solutions internationales. Déjà on fera comme tout le monde, on est secure et quelque part ce n’est pas plus mal parce qu’on a démontré qu’on n’était pas si bons que ça ».

Tariq Krim : Je ne pense pas, je vais dire pourquoi. Déjà je pense que le Minitel a été un grand succès. C’est un produit qui a été déployé, chipé, utilisé par des millions de gens pendant des années, ça marchait très bien. L’objectif du Minitel, rappelons-nous, c’était d’éliminer l’annuaire papier et ça a très bien marché, des grands-mères l’utilisaient, les gens ont découvert le e-commerce. Je crois que le vrai sujet c’est, qu’en fait, on avait dans le Minitel une infrastructure logicielle très centralisée, c’est-à-dire que c’était une équipe qui développait tout et on déployait à tout le monde et ça, ça marchait. Avec Internet on est entré dans un monde décentralisé où il fallait, en fait, être présent dans l’écriture du logiciel, dans les développements, dans un ensemble de choses qui allaient devenir nécessaires, dans la distribution de vidéos, donc à la fois au niveau des protocoles, au niveau des réseaux, des technologies de réseau, mais également au niveau des produits finaux. Et là, curieusement, plutôt que d’investir à la fois dans le logiciel libre, dans toutes les technologies qui allaient nous permettre d’avoir une bibliothèque de logiciels qui nous permettraient des outils, qui permettraient de développer des choses, on a essentiellement décidé de se focaliser sur les usages – c’est un terme que je n’ai jamais vraiment compris au sein de l’administration française – et sur le déploiement du haut débit. Finalement, à la fin, on est devenus des super câblo-opérateurs, des super opérateurs mobiles, mais qui étaient incapables de faire fonctionner les choses qu’il y avait à l’intérieur.
De toute façon il faut être clair il y a deux internets.
Il y a le premier internet qui est libre et gratuit, qui s’appuie sur le Web, qui a été ouvert, qui a été inventé en Europe parce qu’il faut rappeler que Linux et le Web ont été inventés en Europe.
Ensuite, il y a un deuxième internet que j’appelle plutôt l’Internet boîte noire, qui démarre un peu avant l’iPhone, qui lui est basé sur des formalisations complètement fermées et là on vit à l’intérieur des Mac, des PC, des iPhones et des devices et là effectivement, à aucun moment on n’a su, au niveau européen, pas uniquement français, exister. Les Chinois ont une vision différente ils ont dit « on va refaire un Android et on va obliger Apple à installer notre App Store, nos conditions ». On aurait dû faire quelque chose de similaire, on aurait dû s’assurer qu’il y ait de la concurrence d’App Store, de la concurrence de browser, que l’on puisse exister sur ces téléphones sans passer sous les fourches caudines. On le voit aujourd’hui pour l’application StopCovid, le gouvernement est obligé d’attendre que l’ingénieur d’Apple, à Cupertino, appuie sur le bouton « OK, c’est mis en production ». Alors que normalement, dans un monde idéal, on aurait pu développer sur ces plateformes comme on développait avant sur Windows et autres.
Je pense qu’il y a eu vraiment une méconnaissance du logiciel et surtout une perversion du système qui fait que les rares éditeurs de solutions, notamment en logiciels libres, ne sont jamais, en fait, soutenus par l’État. C’est-à-dire que d’un côté on a l’État qui donne de l’argent en subventions ou en aides à la recherche à plein de sociétés et quand il s’agit ensuite d’acheter des produits, eh bien soit on prend les produits sur étagère des grands groupes, qui sont un peu des Frankenstein c’est-à-dire des montages de plein de choses, on ne sait pas trop. Par exemple maintenant Orange il y a du Huawei et de l’Amazon Web Services, il y a plein de services packadgés derrière la marque Orange Business Services. Donc au lieu de prendre les petites boîtes, de les soutenir et de leur donner une assise, on préfère, à partir de là, considérer que le logiciel est neutre. Finalement, qu’on prenne du Microsoft ou qu’on prenne du OVH ou que l’on prenne du Scikit-learn ou que l’on prenne un autre produit – Scikit-learn9 est quand même la techno star de l’intelligence artificielle qui est développée en France par l’Inria – à partir de là tout ça ce sont des détails techniques. Je pense qu’il y a aussi un manque d’expertise technique, je crois que Fabrice l’expliquait dans un de ses tweets, les comex des grands groupes n’ont aucun ingénieur ou développeur ou personne capable de leur expliquer que ce qu’ils disent parfois à la télévision n’est pas totalement vrai.

Bertrand Lenotre : Justement, juste un point. Tu as dit un mot clef : « neutre ». Autrement dit, on part du principe aujourd’hui qu’effectivement acheter du cloud Microsoft ou Amazon ou autres c’est comme acheter une boîte de corn-flakes, c’est une parmi tant d’autres sur le marché et puis basta. Ce qui, d’ailleurs très souvent, a été la logique dans une logique de DSI dans les entreprises ou autres. La question est là. Est-ce qu’on peut parler de neutralité lorsqu’on est à la tête d’un État et que l’on veut acheter une prestation de service auprès d’acteurs qui se trouvent être, pour la plupart, américains ou peut-être chinois, bref, en gros pas européens, à part OVH, parce qu’on n’a pas mis ce qu’il fallait sur la table pour pouvoir le faire ? Est-ce que c’est question-là de neutralité qui est en jeu aujourd’hui ?

Tariq Krim : Oui. En fait, il y a plusieurs questions.
La première c’est qu’il n’y a pas que le logiciel, il y a aussi le caractère juridique. Comme vous le savez, il y a maintenant des lois d’extraterritorialité aux États-Unis qui font que lorsque vous utilisez des logiciels américains, avec notamment ce qu’on appelle le CLOUD Act10, il y a une possibilité pour les États-Unis d’avoir accès à certaines données. Il y a aussi un problème d’allégeance, c’est qu’à la fin, finalement, le patron d’une boîte américaine n’a de véritable allégeance qu’au pays qui lui délivre son passeport, ne serait-ce que pour pouvoir se déplacer.
Il y a ça, mais il y a aussi, je crois un schisme. On parle souvent de la startup nation qui est, à la base, un concept israélien mais qui est devenu le leitmotiv de ce gouvernement. On est passé, en fait, du village global à l’exploitation de la misère humaine, qu’elle soit psychologique ou économique. C’est-à-dire que désormais le monde technologique n’est plus neutre politiquement. Au-delà de la neutralité, il y a, évidemment, la neutralité technologique, mais il y a également le problème de la neutralité politique qu’expliquait tout à l’heure Fabrice. Aujourd’hui, acheter à une société, prenons Microsoft mais ça pourrait être Google ou d’autres, ce sont des boîtes qui ont des contrats actifs avec le ministère de la Défense US, ce sont des gens qui ont eu… Vous avez dû voir ce qui s’est passé avec GitHub, les gens qui étaient contre le fait que Microsoft soutiennent ICE [United States Immigration and Customs Enforcement] qui est, en fait, la police de l’immigration qui a enfermé des enfants aux États-Unis dans des conditions absolument catastrophiques. Soudain, se pose la question de ce que l’on finance, c’est-à-dire qu’au départ on ne finance pas uniquement un développement, on finance aussi des gens qui vont avoir des destins singuliers et, en fait, on paye la R & D de Google, Facebook et des autres et en retour, ce qu’on a, c’est la radicalisation algorithmique, ce sont les fake news, c’est l'optimisation fiscale. Donc il y a aussi une question de regarder à plus long terme quelles sont les conséquences de nos actes.
En fait, cette transition du modèle politique des plateformes qui est devenu un modèle assez agressif, notamment avec le Brexit et Trump, c’est quelque chose qui n’avait pas été anticipé par les gens qui en faisaient la promotion. Pour eux, on était encore dans « tout le monde il est beau, tout le monde il est gentil » d’il y a dix ans où on faisait des applications, c'était fantastique, Uber c’était fantastique, Deliveroo c’était fantastique, et aujourd’hui on se rend compte qu’on a, d’une certaine manière, optimisé ces outils qui ont une vision politique. J’appelle les suprémacistes numériques. Pour moi typiquement, le profil du suprémaciste numérique c’est Cédric O qui est d’ailleurs le père fondateur du Health Data Hub dans sa mission. C’est l’idée de se dire qu’en fait l’État ou la société n’est qu’un modèle mathématique que l’on peut modéliser à merci indépendamment des conséquences.
En fait, cette vision est de plus en plus forte. Vous l’entendez quand les gens vous parlent des data, « grâce aux data, grâce aux data », le monde qu’on est en train de nous donner c’est un monde de modélisation et un monde dans lequel on ne tient pas vraiment compte des conséquences de ces modélisations, des conséquences de ces usages, de ces produits. On est, en fait, dans une situation assez drôle c’est qu’aujourd’hui l’intérêt de ces plateformes est diamétralement opposé à celui, évidemment, de notre société. C’est aussi pour ça que je promeus l’idée d’un slow Web. Pour moi, le rôle d’un État c’est aussi de ralentir la société, ce n’est pas de l’accélérer à tout prix.
Ce choix sur étagère qui, à priori, semble neutre, en fait injecte une vision politique dans le logiciel que l’on fait tourner. D’une certaine manière ça me fait regretter le logiciel plan-plan, pas forcément incroyable, mais plan-plan des deux ou trois générations précédentes.

Fabrice Epelboin : C’est clair qu’aujourd’hui les grands acteurs de la technologie sont des acteurs politiques de premier plan. Il y en a certains qui ne sont pas très clairement positionnés, qui essayent d’avoir une relative neutralité, je pense à Apple, mais les autres sont très clairement engagés dans des camps politiques. Facebook a très clairement pris le parti de Donald Trump, là où Twitter est très clairement anti-Trump. Amazon, en ce moment, quand on connaît l’actionnaire d’Amazon, ça n’est un secret pour quiconque, est radicalement anti-Trump également. Et toutes ces sociétés vont aller se positionner non seulement dans des camps politiques mais aussi des projets de société. Transformer la société en algorithmes et l’aborder par la data ce n’est pas neutre, c’est très précisément ce qu’a fait Cambridge Analytica11.
Donc il y a un vrai projet de société derrière, qui est connu de peu de monde, en tout cas qui, pour l’instant, ne suscite pas beaucoup d’inquiétude. Je me souviens de conversations que j’ai eues avec des gens qui me disaient « oui, le transhumanisme, peut-être, un jour, mais pour l’instant c’est un peu une vision » et qui ne réalisaient pas du tout que le transhumanisme c’est ce qu’on a vu à l’œuvre aux États-Unis et qu'on est en plein dedans. La transformation de la société par le transhumanisme a commencé, on est au tout début mais ça a commencé.
Il y a une incompréhension politique de ce que ces acteurs peuvent avoir comme intérêt et surtout la facilité avec laquelle, typiquement, on a privatisé une partie de la justice française relative à la liberté d’expression auprès d’un acteur qui est très clairement positionné pour Trump, pour les fake news et pour, on va dire, ce renouveau du populisme. C’est fascinant comme stupidité politique !
Mon diagnostic c’est qu’il y a vraiment un manque total de compréhension non seulement de la réalité de ce que sont les technologies, mais de la dimension politique qu’elles ont prises et c’est extrêmement dangereux d’avoir comme dirigeants des gens qui sont à ce point ignares.

Bertrand Lenotre : On va terminer tous les quatre, si vous voulez bien, par la solution, les solutions possibles, est-ce qu’il y a un électrochoc possible de la société française, des sociétés non-américaines occidentales on va dire, qui sont en mesure de proposer des solutions technologiques et d’avoir une forme de souveraineté technologique ? Est-ce qu’il y a un électrochoc possible qui pourrait nous amener à créer quelque chose ?
On en a déjà parlé, il y a des opérations qui se font avec de plus en plus de prise de conscience de cette nécessité de la souveraineté, mais qu’est-ce qu’il faudrait pour que le grand public s’en empare, comprenne que là la ligne rouge est franchie et que, vraiment, on est en train d’aller vers un danger qui sera suprême et qui sera bien plus politique et social que technologique à l’arrivée ? Tariq.

Tariq Krim : Je voudrais dire que la première des choses qui est importante, c’est de comprendre qu’une autre vision du numérique est possible. On se rappelle tous les débuts de l’Internet, c’est-à-dire finalement les débuts avant la plateformisation à outrance, le culte de la vanité, l’algorithmisation de tout. C’était une époque agréable à vivre. C’était une époque où on avait l’impression que l’Internet était une forme d’extension de nos vies. Aujourd’hui c’est devenu une prison, quelque chose de suffocant. Donc ça c’est la première des choses.
La deuxième, je dirais qu’il y a un vrai problème de RH [ressources humaines]. Je l’avais déjà dit dans le rapport que j’avais rendu à Fleur Pellerin il y a six ans. On a de très bonnes personnes, de très bons développeurs, on a de très bonnes écoles, mais ces gens ne travaillent pas au niveau où ils devraient être. Aux États-Unis, quand ils sont chez Google, c’est le CTO [Chief technology officer] de Linkedin, c’est le responsable du cloud de Google, c’est l’inventeur ou le co-designer de Kindle. Ou, dans le cas de feu Jean-Marie Hullot qui est un de mes mentors, le développeur originel de l’ìPhone. C’est ce niveau. Quand ils travaillent en France, en fait, on les met dans le huitième sous-sol de Bercy ou on leur demande de sortir de leurs compétences technologiques pour devenir des super chefs de projets, des gens qui essayent plus ou moins de bâtir des éléments de langage.
Au-delà du fait qu’il y a un autre projet numérique qui existe, il y a un problème de RH, et la troisième chose c’est de savoir où on veut aller. Je pense que la question est à la fois française et européenne. On est dans un monde où on n’a plus autant de ressources que l’on souhaite. On s’est rendu compte qu’on atteint un gap au niveau écologique mais également au niveau de la production d’énergie. On va arriver maintenant à un moment où la production arrive à certains pics. Donc la question c’est comment vit-on dans un monde qui est moins matériel ? Eh bien il faut avoir des biens immatériels riches, de qualité, et on peut se poser la question.
Pour moi, le seul compétiteur par exemple de Netflix c’est l’Ina [Institut national de l'audiovisuel]. Si on faisait un service qu’on mettait gratuit avec l’ensemble des données, de tous les films, tout ce qui a été produit par la télévision publique depuis 50 ans, on aurait quelque chose d’absolument incroyable qui pourrait être réutilisé par les professeurs, qui permettrait, en fait, de construire une contre-proposition. Aujourd’hui on essaye de faire, entre guillemets, un « sous-Netflix » en se disant comme on a les droits des séries américaines, pour l’instant on va re-packager les choses — c’est un peu ce qu’a fait Canal+ en disant on fait un truc un peu similaire —, alors que pour moi il faut une vision radicalement différente.

C’est la même chose pour l’Éducation. L’Éducation c’est un terreau incroyable pour développer des nouvelles choses, mettre en avant de nouveaux logiciels, appendre, en fait, à la prochaine génération à utiliser ces outils, à les fabriquer, à comprendre comment un ordinateur marche parce que c’est aussi le problème maintenant, c’est qu’on est un peu dans le mythe du cargo. C’est-à-dire qu’on arrive, on a un téléphone, on ouvre une boîte, il y a un appareil qui s’allume. C’est un demi-dieu qui sait tout de nous et on ne sait même pas comment il fonctionne. Donc il faut vraiment reprendre complètement ce qui n’a pas été fait depuis au minimum deux/trois gouvernements et relancer une politique où la technologie fait partie de notre vie. La seule question qui se pose c’est la question de la balance, on parlait de la ligne rouge, c’est-à-dire où la technologie commence, où elle s’arrête, quelles sont les règles, les clarifier et ne pas, en fait, se donner le sentiment que la technologie est illimitée.
Ce qui est fascinant dans les religions c’est que toutes les religions, d’une certaine manière, apprennent aux gens à gérer l’abondance. Par le jeûne, le ramadan, enfin plein de choses, on append à gérer l’abondance. Et dans ce monde numérique qui est, en fait, une forme de nouvelle religion on nous a intégrés dans cette abondance, dans cette d’infinité et ça ne marche pas, ça rend les gens fous. Le rôle d’un État, mais aussi le rôle de la société, c’est d’apprendre à construire des limites à cela – le terme de limite me gêne un peu – une balance entre ce monde infini et la réalité dans laquelle on vit et apprendre à gérer les deux. Si on ne fait pas ça, on sera effectivement dans un monde où les formules mathématiques où on peut simuler, dans la simulation de la simulation, comme dans Enception et, à la fin, on a l’impression qu’on connaît le monde alors qu’en fait on ne connaît qu’une petite partie du monde. Donc il faut revenir à une balance, un équilibre et, j’allais dire, presque aux textes fondamentaux. Tout ça a été vu et revu par les pionniers de la cybernétique, l’intelligence artificielle dans les années 60, qui étaient des chercheurs et des philosophes. Maintenant on a rétréci notre vue et on est, en fait, dans le discours marketing. Tu parlais de transhumanisme, je ne sais toujours pas ce qu’est le transhumanisme, en tout cas, ça marche bien d’un point de vue marketing.

Fabrice Epelboin : Je pense qu’il y a une piste à explorer parce qu’on est quand même dans un momentum. On est en plein dans une épidémie terrible qui a mis en valeur comme jamais la réalité de ce que c’est que la souveraineté, à tout niveau. Il y a réel problème avec la santé en France, ça n’aura échappé à personne, et, qui plus est, on se retrouve avec ce très mauvais timing de la part de Cédric O qui fait que cette histoire de hub, de data, destiné à être le futur de notre santé publique, on vient de le passer aux Américains. Peut-être qu’il serait temps d’expliquer à la population ce qu’on serait en droit d’attendre d’un tel hub de data.
À partir du moment où on aura toutes les données de santé des Français et qu’on aura ces algorithmes d’intelligence artificielle pour les ausculter, on va être en mesure de commencer à faire de nouvelles formes de santé, à faire de la santé prédictive, à repérer des problèmes qui étaient totalement invisibles jusqu’ici, à mieux les adresser, à faire des politiques de santé beaucoup plus fines, et tout ça va potentiellement nous apporter un confort absolument spectaculaire qui devra bien compenser, effectivement, une décroissance qui s’annonce absolument inévitable.
Aujourd’hui, l’enjeu c’est de savoir si on sera maîtres et souverains de toute cette plus-value de santé qui est promise par ces technologies ou si on l’achètera en abonnement, comme n’importe quel service cloud, aux Américains, quitte à se retrouver dans des situations très compliquées d’un point de vue géopolitique. Les États-Unis évoluent à une vitesse folle et on pourrait tout à fait demain se retrouver dans une situation tout comme les Iraniens où, du jour au lendemain, ils coupent les vivres. Et là, on se retrouverait sans système de santé.
Ce sont des problèmes qui sont critiques et qui sont de très long terme. C’est vraiment un projet de société qu’on a bazardé en douce sans même un appel d’offres. On a, à mon avis, le momentum pour que tout le monde comprenne une problématique qui est pourtant très pointue d’intelligence artificielle et de cloud. C’est vraiment maintenant qu’il faut le faire.

Damien Douani : Pour conclure sur tout ça, pour aller dans le sens, bien sûr, de Tariq et de Fabrice, pour ajouter un élément, je pense qu'il faut rendre tangibles les choses. Je pense que tout ce qu’on se raconte entre nous c’est intellectuellement très intéressant, mais, pour n’importe qui dans la rue, ça lui passe 10 000 au-dessus. Sauf si on explique que du jour au lendemain leur carte vitale ne peut plus fonctionner, sauf si on leur explique par exemple que, pendant la crise du covid, on ne pouvait plus trouver de paracétamol parce que la molécule est fabriquée en Chine et elle n’est plus développée dans les laboratoires en France, ni même en Europe.
Ce genre de choses permet d’expliquer très concrètement la même chose. En expliquant que vous ne pourrez plus trouver de paracétamol parce que la molécule n’est plus exportable, eh bien peut-être que demain on ne pourra plus forcément exploiter vos données parce que les données seront ailleurs et gérées autrement, par un acteur qui n’est pas nous.
Je pense qu’il y a un vrai élément par rapport à ces notions de propriété d’État, si on peut dire ça, sans rentrer dans des logiques qui pourraient faire penser à des idéologies communistes ou autres, ce n’est pas la question. La question c’est quels sont aujourd’hui les enjeux d’État et justement les éléments sur lesquels le pouvoir doit pouvoir préempter son pouvoir régalien, comme à une époque la monnaie. Il y a vraiment ces éléments-là qui sont très clairement des enjeux clefs et qu’il faut rendre vraiment tangibles à la population à qui, à mon avis, il manque cette notion de tangibilité. Pour autant, on est à un moment clef de notre histoire qui fait que c’est plus que jamais maintenant qu’il faut arriver à expliquer ça.

Bertrand Lenotre : Avec la nécessité d’avoir une génération qui soit formée dès le plus jeune âge à ces questions-là. C’est un vrai problème crucial et c’est un problème quasi insoluble en matière de temps. C’est-à-dire qu’il faut réagir tout de suite parce que c’est urgent et, en même temps, former toute une population, toute une génération nouvelle à comprendre ces enjeux-là. On va avoir du boulot et du pain sur la planche pour faire tout ça. Il va falloir encore quelques podcasts, j’ai l’impression.
Merci à vous trois d’être venus en parler aujourd’hui, c’était passionnant, il y avait plein de choses intéressantes. Vous pouvez réagir dans les commentaires, je m’adresse à ceux qui nous écoutent, vous avez plein d’endroits où ça se passe, plein de plateformes différentes. On est aussi dans le royaume de la plateformisation et vous pourrez nous interroger là-dessus plus tard.
Merci Tariq. Merci Fabrice. Merci Damien. À +.

Tariq Krim : Merci.

Damien Douani : Ciao.

Fabrice Epelboin : Merci à tous.

27 July 2020

april.png Nouvelles April

Revue de presse de l'April pour la semaine 30 de l'année 2020

Le 27 July 2020 à 19:57:38

Cette revue de presse sur Internet fait partie du travail de veille mené par l’April dans le cadre de son action de défense et de promotion du logiciel libre. Les positions exposées dans les articles sont celles de leurs auteurs et ne rejoignent pas forcément celles de l’April.

[Le Figaro.fr] Linux, Bitcoin... Des codes open source stockés dans l'Arctique pour le futur

✍ Ingrid Vergara, le .

[Next INpact] Application StopCovid: La CNIL exige la correction de plusieurs irrégularités (¤)

✍ Marc Rees, le .

Souveraineté numérique, la douche froide - Tariq Krim et Bernard Benhamou - Thinkerview

Le 27 July 2020 à 12:22:04


captures d'écran de la vidéo

Titre : Souveraineté numérique, la douche froide ?
Intervenants : Tariq Krim - Bernard Benhamou - Sky
Lieu : Thinkerview
Date : 17 juillet 2020
Durée : 2 h 20 min 21
Visualiser la vidéo ici ou ici
Licence de la transcription : Verbatim
Illustration : captures d'écran de la vidéo - Licence Creative Commons Attribution Pas d’Utilisation Commerciale Partage dans les Mêmes Conditions 4.0 International,licence de toutes les interviews de Thinkerview.
NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Transcription

Sky : Messieurs, bonsoir.

Tariq Krim : Bonsoir.

Bernard Benhamou : Bonsoir.

Sky : Nous vous recevons pour une chaîne internet qui s’appelle Thinkerview. Nous sommes en direct. Est-ce que vous pouvez vous présenter succinctement, on va commencer par Tariq.

Tariq Krim : Tariq Krim. Je suis entrepreneur dans le Web. J’ai eu plusieurs carrières. J’ai démarré très tôt en informatique, c’était ma passion. Je suis parti dans la Silicon Valley et je suis revenu en France où j’ai monté plusieurs boîtes. En ce moment, je m’intéresse essentiellement aux questions de souveraineté numérique.

Sky : Bernard.

Bernard Benhamou : Bernard Benhamou. Je dirige actuellement l’Institut de la souveraineté numérique1. Après avoir été à de nombreuses reprises du côté obscur de la force dans différentes fonctions auprès des gouvernements successifs et toujours autour des questions numériques, d’usage du numérique, j’étais délégué interministériel [aux usages de l’Internet, Note de l'intervenant], autour des questions de régulation du numérique depuis, en gros, une vingtaine d’années. J’ai eu l’occasion de rencontrer Tariq à plusieurs reprises sur ces questions.

Sky : Merci. On a décidé de vous faire venir ce soir pour parler de souveraineté numérique, pour parler de privacy shield, pour parler de tout un tas de choses qui ont trait à notre souveraineté numérique et d’autres sujets connexes. On va commencer par Tariq.
Tariq, comment ça se passe en France la souveraineté numérique ? C’est open bar pour les sociétés américaines, pour les sociétés jordaniennes, israéliennes, pour les sociétés saoudiennes ? C’est comment ? Est-ce qu’on a, pour être tout à fait trivial, le pantalon en dessous des genoux ?

Tariq Krim : Vaste question. Je pense qu’on a un vrai problème en France c’est qu’on a l’impression qu’on n’est pas capable de faire des choses, qu’on n’est pas capable de construire ces infrastructures. Ce qui est fascinant c’est que depuis 40 ans en fait, je dirais plus, même 50 ans, je revoyais récemment un document YouTube sur le plan Calcul2 où Michel Debré parlait de la souveraineté numérique, je ne changerais pas une seule ligne.

[Problème technique]

Sky : On revient sur la souveraineté numérique et le fait qu’on essaie de courir avec le pantalon en dessous des genoux.

Tariq Krim : Ça n’a pas toujours été le cas. Ce qu’il faut comprendre c’est qu’après la Deuxième Guerre mondiale, en gros, les Américains ne veulent pas que l’Europe dispose d’une industrie informatique pour une simple raison c’est que qui dit ordinateur dit arme nucléaire, donc dissuasion. À ce moment-là on a vraiment un alignement parfait entre la vision, notamment celle du général De Gaulle, la création de la CII (Compagnie internationale pour l'informatique), de toute une infrastructure. Ce qui est d’ailleurs assez fascinant, c’est qu’à l’époque ils n’ont pas décidé de créer une boîte, mais de regrouper un ensemble de boîtes autour d’un projet, donc construire des calculateurs. À l’époque Control Data faisait des calculateurs un peu puissants, on n’avait pas vraiment accès à ce genre de machine. On a eu cette vision qui est assez française, c’est de dire on fait nos trucs, dans notre coin – on a fait ça avec le TGV, on a fait ça avec le Minitel –, on construit nos réseaux, nos infrastructures. Et ce qui est fascinant, dans une ancienne vie j’ai passé beaucoup de temps à bidouiller des Minitels, quand on ouvre un Minitel la première chose qui est impressionnante c’est que tout est fabriqué en France, absolument tout. Les gens ne le savent pas, mais le Minitel a inspiré Steve Jobs pour le Macintosh, la poignée, le design, donc on est parti d’un modèle où on faisait tout à un modèle où on ne fait presque plus grand-chose maintenant. On veut faire le Health Data Hub3, on est obligé de passer par Microsoft ; on veut faire telle chose, des appels d’offres, on nous explique qu’on ne sait plus faire. Il y a plusieurs raisons, la première, l’expertise est là, mais les gens qui ont l’expertise ne sont jamais les gens qui décident. Ce n’était pas le cas avant on avait beaucoup d’ingénieurs, de polytechniciens, des gens un peu stricts, mais qui étaient des vrais ingénieurs, qui savaient construire, mettre en place des équipes. Maintenant on a plutôt des consultants, c'est-à-dire des gens qui font des powerpoints.

Sky : Technocrates !

Tariq Krim : Mais il y a eu des technocrates éclairés. Là on est vraiment dans le modèle où on a vu une présentation de Google, c’est super – et c’est vrai que c’est très beau – c’est ça qu’il faut faire. Alors qu’en fait, quand on construit des projets sur le long terme, par exemple le Health Data Hub, mais tout ce qu’on va faire, tout ce qui est nouveau dans le numérique, on ne le fait pas pour cinq ans, on le fait pour 20 ans, 30 ans. Quand on a fait le TGV on n’a pas dit c’est un produit qu’on va faire pour quelques années ; il y a une vision long terme, il faut donc la construire et la construire c’est difficile. Il y a deux visions : il y a la vision Uber, on clique, la voiture arrive en bas et on rentre dans la voiture et puis il y a la vision où on passe son permis de conduire, on achète sa voiture, on apprend à la conduire, c’est plus compliqué, c’est plus cher, mais c’est ce qu’on doit faire.

Sky : Bernard, ce n’est pas un peu trop tard de passer son permis de conduire, de prendre sa voiture, d’apprendre à mettre la transition dans un climat de guerre économique où tout s’accélère ?

Bernard Benhamou : On pourrait penser et je pense que ce qui est, d’une certaine manière, le constat que font beaucoup aujourd’hui c’est que, justement, une fois que la guerre est perdue autant faire alliance avec les vainqueurs. C’est une triste résignation, une molle résignation de certains, y compris au sein de l’État. Donc non, je crois que non seulement il n’est pas trop tard, mais je dirais que l’actualité des technologies, c’est-à-dire l’actualité des GAFAM pour les appeler comme ça, c’est-à-dire les grandes sociétés américaines du secteur, montre qu’on est quasiment entrés dans une crise – certains disent crise systémique, peu importe le terme – une crise de confiance à l’échelle mondiale. C’est-à-dire que maintenant Facebook est en trajectoire de collision avec un nombre infini d’acteurs aussi bien publics que privés et c’est aussi, quelque part, le cas de Google avec YouTube qui lui aussi est un accélérateur de radicalisation. Donc par définition je crois que ce modèle-là n’est pas durable, on est convaincus de ça. Mieux encore, j’entendais le mot privacy shield qui était prononcé en tout début d’émission ; c’est un plaisir de venir le lendemain de l’annulation4 d’un traité transatlantique qui était, je dirais, l’ombrelle pour 1500 ou 2000 sociétés américaines pour essayer effectivement de traiter des données des Européens aux États-Unis.
Je fais partie de ceux qui pensent qu’à terme, Tariq citait le Heatlth Data Hub, le nouveau système de rassemblement des données de santé des Français en un seul lieu à des fins de développer des systèmes d’intelligence artificielle, je pense que ces données ne peuvent pas, quoi qu’il en soit, sortir du territoire européen, peut-être pas du territoire français mais au moins européen.
À l’heure qu’il est, le fait que Microsoft puisse traiter une partie de ces données directement aux États-Unis pose un problème. On vient de voir, avec l’annulation du privacy shield, que la justice européenne considère que les données des Européens ne sont plus sécurisées correctement par rapport aux intrusions des systèmes des services de renseignement, par rapport effectivement à l’usage que peuvent en faire des sociétés. Maintenant il y a une sorte de tenaille qui est en train de s‘établir. Ce qui était quasiment inenvisageable il y a cinq ans quand justement le prédécesseur du privacy shield qui s’appelait à l’époque, pour les plus férus, le safe harbor a été annulé, personne ne pensait que le suivant serait annulé. Maintenant tout le monde est conscient que c’était quasiment inéluctable et surtout, on se rend compte à quel point on ne peut plus reproduire la chose, faire comme si de rien n’était et continuer effectivement comme si, j’allais dire, il n’y avait pas eu de scandale Snowden5, il n’y avait pas eu d’affaire Cambridge Analytica6, il n’y avait pas eu toute une série d’évènements qui font que les Européens doivent sortir de l’innocence, je dirais de la naïveté par rapport aux Américains qui faisait dire aux Européens« mieux vaut effectivement leur confier nos données, de toute manière ce sont de belles et grandes sociétés ». Non ! Aujourd’hui on se rend compte que Facebook non seulement est un acteur économiquement toxique pour son écosystème – on pourrait dire la même chose de Google –, mais que ce sont des acteurs politiquement toxiques et qui l’ont montré à plusieurs reprises. Je citerais des gens qui ne sont pas des anarcho-libertaires extrêmes, je citerais le rapport du Parlement britannique qui parle de Facebook en disant « ce sont des gangsters numériques qui subvertissent la démocratie ».
Ce propos-là intervient neuf ans après qu’une certaine Hillary Clinton dise par la voix de son conseiller, Alec Ross à l’époque, que le numérique, l’Internet, est devenu le « Che Guevara du 21e siècle » – c’était l’époque des Printemps arabes – en pensant que c’était l’outil de libération des peuples.
Aujourd’hui, on se rend compte que l’Internet peut être tout, y compris un outil d’asservissement, y compris un outil de contrôle. Nos amis chinois le montrent tous les jours [via la notation des actions de chaque individu, Note de l'intervenant] avec le crédit social, ce système orwellien de contrôle. Donc nous, Européens, qui étions entre guillemets « les mauvais élèves » du monde numérique dans le sens où nous n’avions pas notre industrie propre, avec notre Réglement européen sur les données7, avec cette volonté que l’on a justement de protéger une notion presque dépassée, surannée, qu’on appelle la vie privée, eh bien quelque part nous avions raison… [beaucoup de pays le reconnaissent aujourd’hui, Note de l'intervenant].
Donc je pense que le rebond européen pourrait prendre appui sur, en gros, notre singularité par rapport aux acteurs chinois évidemment et effectivement aussi aux acteurs américains.

Sky : Tariq, ça pose quels types de problème plus en détail le fait que nos data soient stockées aux États-Unis ou soient envoyées aux États-Unis ou peuvent être exploitées depuis les États-Unis depuis une loi extra-européenne ? Par exemple si les services secrets tombent sur nos data qu’est-ce qu’ils peuvent faire ?

Tariq Krim : Déjà, je dirais que ce qu’il faut déjà comprendre c’est que l’Internet depuis au moins 2002, c’est à peu près la date qu’on se donne de temps en temps, est un espace militarisé. C’est-à-dire qu’on prend un ordinateur, on le sort d’une boîte, on le connecte. À l’époque je crois qu’il fallait deux minutes pour qu’il soit transformé en zombie, maintenant je pense que ça ne prendrait même pas 30 secondes, peut-être même moins. Ça veut dire que le fait que l’ordinateur soit connecté, il y a des bots, des services, qui cherchent en permanence des machines à hacker automatiquement puisque comme elles ne sont pas mises à jour, elles sortent de la boite, les patchs de sécurité n’ont pas été mis, et on va les utiliser ensuite pour plein d’actions coordonnées.
En fait, l’espace d’Internet est à la fois un théâtre militaire, mais également un espace commercial qu’il faut sécuriser, donc ça pose un vrai problème parce que, finalement, ce sont les mêmes tuyaux qu’Amazon utilise pour nous vendre des chaussures et que la NSA, la CIA, USCYBERCOM (United States Cyber Command) et évidemment les services de tous les autres pays utilisent ; c'est exactement le même réseau. Donc on a ce problème c’est qu’on n’a pas su, à un moment donné, définir d’un point de vue politique, et ça Bernard l’a suivi, des règles d’usage. En gros, dans les guerres de type cyber à la différence du nucléaire où c’est le premier qui a tiré qui a perdu, dans les guerres cyber c’est l’inverse, c’est le premier qui a tiré qui a gagné. Je sais que dans les vieux magazines Wired qui est magazine californien que tout le monde connaît, il y a un auteur de science-fiction, un peu l'un des parrains du mouvement cyberpunk, qui expliquait quels sont les dix services – c’était en 1993 – qu’il faudrait faire tomber pour faire tomber les États-Unis. À l’époque l’Internet était numéro 4 parce qu’il y avait encore des grids [réseaux] privés. Aujourd’hui, évidemment, ce serait la première chose. On l’a vu hier sur Twitter. Finalement on peut hacker le compte Twitter de quelqu’un de très connu. Le plus connu d’entre eux, si c’était Donald Trump, on pourrait presque déclarer une guerre nucléaire.
Le problème qu’on a, pour revenir sur la question des services de renseignement, c’est que de toute façon l’écoute existe depuis toujours. Ce qui se fait aujourd’hui avec Google, avec les GAFAM, ce que Snowden a dévoilé, existait déjà avant, dans les années 50/60 avec d’autres projets, le projet Minaret, ce qui a donné ensuite Echelon et ensuite on a eu plein de sujets. Ce qui est nouveau aujourd’hui, c’est que ces centres de données analysent non plus les données personnelles : on oublie que des sociétés, Facebook, Google, ne travaillent plus uniquement sur les données, mais sur le comportement. En gros, il y a dix ans, « je veux savoir qui tu es pour te vendre quelque chose ». Aujourd’hui, je vais utiliser ton comportement – le nombre de fois que tu vas sur Instagram, si tu t’arrêtes quelques millisecondes sur une photo, ah tiens tu as envie de voyager ?, est-ce que tu es déprimé ?, est-ce que tu es euphorique ? – pour transformer ton comportement.
Ce qui s’est passé, c’est que la plupart des acteurs de la Valley se sont rencontrés. Nathan Myhrvold qui était le chief scientist de Microsoft, a présenté – je crois que c’est Daniel Kahneman qui avait fait la Thinking Fast and Slow – le marketing comportemental. En fait, il y avait des gens de Google, il y avait des gens d’Amazon, il y avait des gens de Facebook, la personne de Facebook qui a parfaitement compris comment utiliser ces techniques c’est Sean Parker qui était à l’époque le président de Facebook.
Ce qu’il faut savoir c’est que Facebook n’était pas très intéressé à ça jusqu’à ce que Sheryl Sandberg vienne de Google avec la vision du capitalisme de surveillance, c’est-à-dire monétiser les données à outrance, et avec cette idée qu’on peut modifier les comportements pour vendre.
Le problème que l’on a aujourd’hui c’est que quand on modifie le comportement d’un consommateur, c’est-à-dire qu’on veut le rendre dépressif parce que quand il est dépressif il va plutôt acheter des voyages, quand il est euphorique il va s’acheter des chaussures – je schématise –, mais on touche à la psyché des gens. D’une certaine manière ce qui est fascinant c’est que quand on rêve le soir, en fait notre subconscient est alimenté par toutes les images qu’on a vues dans la rue, à la télévision. Aujourd’hui une grande partie, voire la majorité des images qui sont en fait perçues par notre cerveau viennent des écrans. Ce sont des images qui ont été choisies. Ce que l’on voit sur Instagram a été choisi. Si on veut vous déprimer, on va vous montrer la photo de votre ancienne petite amie au lever et immédiatement on va changer votre caractère. Vous allez dire non ! Mais ça marche, ça marche très bien. J’avais rencontré un garçon chez Facebook [qui faisait ce genre d’experience, Note de l'intervenant], ils avaient fait des tests, ils ont arrêté, depuis lui a d’ailleurs quitté Facebook, il déprimait, il disait : « On est capable de modifier les comportements. On modifie les comportements pour le commerce, mais quand on modifie le comportement pour le commerce on modifie aussi la partie citoyenne d’une personne ».

Sky : Pour les élections.

Tariq Krim : Pour les élections.
Ce qui est fascinant c’est qu’on est aujourd’hui dans un monde qui est compliqué parce qu’on a un hyper-fragmentation algorithmique. Avant on avait la télévision, on avait 15/20 niches. Maintenant on est rentré dans des micro-niches qui targettent parfois quelques personnes. Il y a un groupe terroriste un peu d’extrême droite, je dis terroriste parce qu’ils ont tué des gens en Californie, qui s’appelle Boogaloo, je crois que tous les membres se sont rencontrés grâce à Facebook.
Donc on a construit une espèce de fragmentation algorithmique permanente, on crée des micro-niches. Ce que je pense c’est que les micro-niches créent de la médiocrité, parce qu’on est un peu le borgne au milieu d’un micro-monde d’aveugles et, en fait, on ne communique plus. Effectivement ça a construit, avec YouTube mais aussi avec Facebook, ce que j’appelle souvent la radicalisation algorithmique, c’est-à-dire qu’on travaille mentalement une personne et ces techniques qui sont des techniques de comportement, de modification comportementale, sont des techniques qui ont été inventées dans les années 60 par la CIA, par tous les services de renseignement pour modifier la psyché. Elles ont été boostées par le fait que désormais, avec le téléphone, on est seul. On va aller voter, on doit voter pour Hillary, et puis on va aux toilettes, on prend son téléphone et là on voit un truc, une fake news sur Hillary, on est énervé, on est vraiment énervé, c’est le bon moment et puis on change son vote à la dernière minute.
Ce qui a changé entre l’élection de Trump et l’élection d’Obama c’est que l’élection d’Obama c’est une élection internet alors que l’élection de Trump c’est devenu une élection sur le smartphone et le smartphone, en fait, est un appareil unique. Personne ne regarde votre téléphone, personne ne regarde ton téléphone Bernard, c’est quelque chose de privé. Donc on a cette capacité et elle a été utilisée. Les services de renseignement, à mon avis, n’osent pas faire ce genre de chose. Ils le font peut-être. Je pense honnêtement aujourd’hui que Facebook, Google et toutes ces plateformes ont moins de scrupules à utiliser ces techniques, parce que c’est du commerce, que les services de renseignement.

Sky : Il y a une porosité entre les services de renseignement et les GAFA ? Bernard.

Bernard Benhamou : C’est possible, bien sûr que si. S’il y a bien une chose que l’affaire Cambridge Analytica a bien démontrée, cette énorme affaire effectivement durant la préparation de l’élection américaine, pour ceux qui n’en auraient pas entendu parler, c’est que d’une part les données peuvent être traitées par des psychologues, spécialistes d’opérations psychologiques.

Sky : PSYOP.

Bernard Benhamou : PSYOP. On voit bien qu’il y avait plusieurs convergences, je dirais. Ce que décrit très bien Shoshana Zuboff dans son livre sur le capitalisme de surveillance, d’ailleurs je le conseille à tous vos auditeurs et spectateurs, même si, malheureusement, il n’est pas encore traduit en français, il est traduit en allemand. J’espère qu’il y aura un éditeur très bientôt, je crois que c’est le cas [il devrait être traduit à l'automne, Note de l'intervenant]. On voit bien qu’il y a une convergence entre l’activité économique qui se nourrit de la data et les activités des services de renseignement qui, c’est une tendance de ces dernières décennies, a de plus en plus été vers l'analyse de signaux technologiques plutôt que celle des signaux humains [SIGINT], donc utilise de plus en plus la data.
Comme le rappelait justement Tariq, on n’en est plus au stade d’analyser le comportement, on en est au stade de le manipuler. Pour ceux qui sont en mesure d’agir – Tariq faisait référence au fait de pouvoir changer l’état d’esprit, l’humeur d’une personne – on sait très bien que pour aller vers un vote extrême on aura plus intérêt à faire que la personne soit en colère. Une personne qui est sereine, qui est zen, à priori aura moins tendance à aller vers un vote extrême, en tout cas c’est comme ça que la chose a été analysée.
Donc oui, typiquement on sait maintenant que modifier le newsfeed sur Facebook permet de modifier l’état d’humeur des gens. On sait qu’en leur montrant, ce qu’a très bien démontré une autre spécialiste, Zeynep Tufekci, une turco-américaine, remarquable sociologue sur la radicalisation via les vidéos justement, en particulier sur YouTube, on sait effectivement que si on montre des choses de plus en plus hard, ce qu’elle dit très bien, elle dit que rien n’est jamais trop hard pour YouTube, voila ce qu’elle dit, et elle concluait un de ses articles en disant « YouTube est peut-être devenu le principal outil de radicalisation du XXe siècle », parce que justement la puissance du choix algorithmique en fonction des personnes, en allant vers des vidéos de plus en plus hard, en montrant des messages de plus en plus radicaux ! Tout à l’heure Tariq évoquait les micro-niches, c’est-à-dire les bulles informationnelles comme on les appelle. La particularité aujourd’hui c’est qu’on fait en sorte que des gens ne rentrent jamais en contact avec des idées qui les dérangent, pas simplement des idées différentes, non, des idées qui remettent en cause leur schéma de vie. Donc on crée des groupes qui ne se parlent jamais entre eux.

Sky : C’est qui « on » ?

Bernard Benhamou : Ceux qui ont intérêt à le faire, c’est-à-dire ceux qui tant d’un point de vue économique que d’un point de vue politique ont envie de faire en sorte qu’une partie de la population devienne captive par rapport à un certain type de comportement.

Sky : Ou d’idéologie.

Bernard Benhamou : Ou d’idéologie. Sachant que la consommation, ça a très bien été étudié par des publicitaires depuis plusieurs dizaines d’années [les actes de consommation peuvent révéler les convictions d'une personne, Note de l'intervenant], y compris nos actes de consommation quotidiens, anodins : la soupe Campbell qu’on voyait dans le tableau de Warhol était apparemment plutôt une soupe consommée par les Républicains, ne me demandez pas pourquoi, je n’en sais strictement rien. De même pour les voitures, je crois que certaines marques « étaient plus », entre guillemets, progressistes, démocrates, d’autres étaient plus républicaines, Chevrolet versus Ford, je crois.
On sait que l’on est capable d’agir sur le comportement des gens en fonction de toutes sortes d’informations qui nous proviennent [de leurs activités en ligne, Note de l'intervenant]. Et après, évidemment, ceux [personnes ou groupes] qui y ont intérêt pour des raisons politiques, que ce soit des puissances étrangères, que ce soit des partis politiques parfois même en collusion l’un avec l’autre puisque c’était un peu de ça dont il était question, sur la Russie en particulier ; l’affaire Stone qui vient juste de rebondir récemment était liée à des contacts répétés avec des officiels russes, des officiers du renseignement russe. On voit bien qu’aujourd’hui on a les instruments avec des moyens limités, avec des groupes de personnes limités, la célèbre agence russe, Internet Research Agency, ce sont des moyens qui ne sont pas énormes mais qui permettent d’influencer, comme on l’a vu pour Cambridge Analytica.

Sky : Agence russe privée. C’est un privé qui a des porosités avec le gouvernement. Il semblerait.

Bernard Benhamou : Oui. Il semblerait, je ne suis pas un russologue aussi distingué que certains de vos invités [Bernard Benhamou indique Tariq Krim, NdT], mais on pense effectivement qu’il y a eu une interaction de l’un par rapport à l’autre.

Sky : Ils ont laissé faire.

Bernard Benhamou : Oui. Et ce qui est amusant c’est de voir le processus. C’est-à-dire ce n’était pas « votez Trump », c’était « vous ne serez pas bien représentés par Hillary Clinton, à quoi bon aller voter ». Donc l'objectif était d'éteindre le vote démocrate, en particulier pour les Afro-Américains.
On maîtrise de mieux en mieux ces phénomènes-là et ce qui le plus inquiétant, pour revenir aux questions de souveraineté numérique, c’est que pour l’instant les États ne sont pas en mesure de faire valoir la défense de certains principes, y compris vis-à-vis de sociétés comme Facebook.

Sky : Tariq, on fait comment pour éviter l’astroturfing de nos élections ? Est-ce qu’on fait du brouhaha médiatique comme les dix dernières années, du moins les cinq dernières années, avec un gouvernement qui, excusez-moi d’être très trivial, fait sa pleureuse en disant « oh ! là, là, les Russes ils font des bêtises, ce n’est pas bien, ce n’est pas bien les Russes, ce sont des méchants les Russes ! », ou est-ce qu’on muscle un peu le cerveau de nos concitoyens ? Est-ce qu’on se donne des outils pour les repérer plus facilement ? Qu’est-ce qu’on fait ?

Tariq Krim : Il y a plusieurs sujets.

Sky : Comment on fait pour réinvestir la dialectique ? Comment on fait pour éviter que la population soit laissée aux quatre vents de toutes les propagandes ?

Tariq Krim : Il y a un vrai sujet là-dessus. Déjà on a très rarement appris la rhétorique. Aujourd’hui celui qui parle le mieux, on l’a vu avec les débats – qu’elles que soient les opinions des uns et des autres, hydroxychloroquine, etc. – on a vu avec le covid, on est sur un sujet scientifique et médical, la plupart des gens qui aimeraient en parler, qui aimeraient être présents sur les plateaux de télé, se disent je n’y comprends rien et on a même vu en parler des journalistes qui ne savaient même pas ce qu’est une courbe exponentielle, donc on était vraiment à un niveau zéro en science. La rhétorique est importante. C’est là où c’est très intéressant. Quand on voit par exemple les dissents de la Cour suprême, vous avez des gens qui défendent des points de vue opposés à leur vue mais de manière tellement brillante que vous êtes prêt à dire « il a raison » et de dire l’inverse. Donc il faudrait qu’on apprenne un peu !

Sky : Un concours d’éloquence.

Tariq Krim : Un concours d’éloquence. Voilà. Ça c’est la première chose.
La deuxième c’est qu’on a un cancer. Si vous voulez, on est passé de ce qu’on a appelé dans les années 90, les online communities, des milliers de personnes, on a connu les débuts, le WELL8 [Whole Earth 'Lectronic Link], toutes ces communautés, aux médias sociaux, des blogs, des millions d’utilisateurs à des plateformes, on a désormais des milliards d’utilisateurs. Ce dont on ne parle pas, ce dont tu parlais tout à l’heure Bernard, avec YouTube, c’est qu’aujourd’hui on est dans un monde de fast-food. Pour moi Facebook, Google, c’est le Mac Donald de la pensée. Ce qui est fascinant avec Mac Donald c’est que la recette du Big Mac c‘est la même recette quasiment dans tous les pays. Par contre, en France on prend de la viande française, de la salade française, des pommes de terre françaises. Donc on a construit un algorithme qui est finalement le même – je n’aime pas dire un algorithme, parce que je déteste les gens qui parlent des algorithmes – on a créé un ensemble d’éléments de programme qui nous permettent d’identifier, d’analyser une personne, ce sont les mêmes, simplement le substrat, donc les matières sur lesquelles on va construire un profil sont différentes. On est tous énervés pour les mêmes raisons, on est tous euphoriques pour les mêmes raisons. On a créé, en fait, un système de massification de la personnalisation, on n’a pas de système personnel.
La deuxième chose, c’est que le cancer de nos dernières années, ce qu’on appelle le behavioral microtargeting, le micro-ciblage comportemental, on vous cible en fonction de vos comportements, de vos habitudes, de ce qu’on a compris de vous, pas parce que vous vous intéressez à des céréales ou à acheter une Toyota. Le drame pour moi, la chose qui m’énerve le plus dans ces 20 dernières années, malheureusement ou heureusement je connais un peu les gens qui fabriquent ces choses chez Google, chez Facebook, les plus grands génies en mathématiques ont soit servi à détruire le système financier avec les marchés dérivés et les subprimes et aujourd’hui, la génération d’après qui normalement devrait réfléchir à d’autres sujets, en fait passe ses journées à optimiser des algorithmes pour vendre mieux des Toyota sur Facebook.
On a, en fait, un savoir-faire incroyable qui a été mis dans quelque chose qu’on pensait inviolable. Ce qui est assez incroyable dans l’histoire de Facebook c’est que un, ils l’ont su assez tôt. Alex Stamos qui était l’ancien patron de la sécurité a dit très rapidement « on a un problème », on a étouffé l’affaire. Mais surtout, ce qui s’est passé, c’est qu’ils se sont fait avoir. C’est-à-dire que d’un certain côté vous avez Facebook qui dit à son annonceur « on est capable de savoir exactement qui peut faire quoi, comment, combien de gens ont vu le clic » et dès qu’on parle des problématiques liées à la campagne « ah non, je crois qu’on n’a pas vraiment toutes des données ». Ils se sont fait avoir par des gens qui étaient bien plus malins qu’eux. Et surtout, on oublie de le dire, ce qui est génial dans la campagne de Trump, c’est que la campagne d’Hillary avait ses spécialistes en big data, etc., ils avaient fait leur sauce. L’équipe de Trump qui n’avait pas autant d’argent, d’ailleurs Brad Parscale vient apparemment, si j’ai bien compris, d’être viré par Trump, a dit aux gens de Facebook qui avaient ce qu’ils appelaient le projet Alamo – il y avait Cambridge Analytica et il y avait plein de gens, mais il y avait des gens de Facebook qui étaient « prêtés » entre guillemets par Facebook – comment on peut faire pour micro-targeter ? Donc ils l’ont fait de manière extrêmement efficace. Comme le disait Bernard, on a surtout travaillé à faire de la suppression de vote.
Cette technique, à mon avis, devrait être interdite en Europe, complètement interdite. On a les bénéfices, c’est-à-dire vendre plus de Toyota ou vendre des céréales.

Sky : Des Renault ou des Scénic.

Tariq Krim : Des Scénic et des Renault ou d’autres produits. C’est vrai que j’utilise toujours… Vendre des produits de consommation ne mérite pas de menacer la démocratie.
Je n’ai jamais de problème : les gens pensent ce qu’ils veulent ! Mais là, on sent que les gens sont manipulés par des méthodes grossières.

Sky : Pourquoi ?

Tariq Krim : Je m’explique. L’algorithme de YouTube, ce n’est pas moi qui le dit c’est Yann Le Cun qui est notre grande pointure en IA et qui a un peu vendu, il faut le dire, son âme à Facebook. Il le dit, il dit quand vous arrivez par exemple pour la première fois sur YouTube, il faut qu’au bout de cinq vidéos on soit capable de vous proposer une sixième vidéo que vous ayez envie de voir. En fait on fait un travail assez grossier et ce travail assez grossier c’est cette base, ce substrat sur lequel on va travailler ensuite. Fondamentalement on n’a jamais travaillé sur un approfondissement. Tous les algorithmes de ciblage, de micro-ciblage sont assez grossiers, c’est « on doit faire de l’argent très vite » et ça pose un problème parce qu’il n’y a aucune régulation. C’est difficile de réguler ce que vous ne voyez pas. Il y a des publicités en Angleterre sur le Brexit que le régulateur n’a jamais vues, il ne sait même pas qu’elles existent, elles ont été vues trois mois après le vote. Donc on a vrai sujet. Je sais que ça ne plaît pas beaucoup aux gens de la tech quand je dis ça, mais il faut supprimer, arrêter le microtargeting, c’est-à-dire qu’il faut revenir à la publicité classique où on fait du ciblage plus classique, un peu plus grossier, mais qui n’est pas après utilisé comme un outil.

Sky : Bernard je te redonne la parole tout de suite. Je repose une question à Tariq : est-ce qu’on peut intoxiquer, à l’échelle du particulier, l’algorithme ?

Tariq Krim : Par intoxiquer ? Juste pour bien être sûr d’avoir compris la question.

Sky : Je sais que tu es très fan des vidéos de Youtubeuses beauté, si tu regardes tes cinq premières vidéos de Youtubeuses beauté, est-ce que l’algo de YouTube – je sais que tu n’aimes pas dire l’algo – va penser que tu es fan de Youtubeuses beauté ? Est-ce que tu as compris le principe ?
Je te le fais en plus simple. Tu vas sur YouPorn, tu ne regardes que des vidéos où il y a des blacks, on ne va te proposer que des vidéos avec des blacks. Est-ce qu’il y a moyen de l’intoxiquer ?

Bernard Benhamou : De modifier le fonctionnement de l’algorithme de façon fausse, de manière à l’induire en erreur.

Sky : Exactement Bernard.

Tariq Krim : En fait il y a deux forces en ce moment, il y a deux types d’algorithmes chez Facebook. Il y a les algorithmes qui veulent intoxiquer les gens, donc qui veulent montrer tous les contenus y compris ceux qui rapportent le plus d’argent, puisque finalement c’est très neutre, c’est la bottom-line, c’est triste à dire, mais Facebook est passé d’une boîte qui était très technologique à une boîte qui est vraiment focalisée sur la monétisation. Et à côté de ça, il y a les algorithmes dits de monitoring parce que comme ils se sont fait taper sur les doigts avec Rohingyas, avec la campagne, donc ils ont créé des outils pour faire un peu la police. Donc on a ces deux algorithmes qui se battent en duel. Évidemment celui qui est là pour rapporter de l’argent marche le plus.
Est-ce qu’une personne seule peut modifier l’algorithme qui lui est imposé ? Je ne crois pas. Je ne sais pas si vous vous rappelez, à l’époque d’Echelon il y avait eu une histoire – Echelon, le système de la NSA basé sur des mots clefs – quelqu’un avait récupéré une liste de mots clefs, avait dit « on va mettre nos mots clefs dans tous les e-mails et on va saturer le réseau Echelon ». La réalité c’est qu’en fait les gens utilisaient un seul mot clef donc dès qu’il y avait un ensemble de mots clefs, évidemment le mail était ignoré, donc ça ne servait à rien.
Ce qui est très intéressant dans ces plateformes c’est que les algorithmes changent énormément avec toujours la même question : comment l’engagement est le plus fort. Si quelque chose ne marche plus c’est comme un vieux disque, on change le disque, on passe à autre chose. Et souvent, comme le disait Bernard, on va vers des choses qui sont de plus en plus ennuyeuses parce qu‘on pousse vraiment les gens aux limites de leur psyché.

Sky : Gavage.

Tariq Krim : Absolument.

Sky : Bernard.

Bernard Benhamou : Je pense que le problème c’est que là où auparavant on réfléchissait en termes de navigation sur Internet, c’est-à-dire, en gros, est-ce que justement on peut modifier son surf de manière à induire, entre guillemets, « en erreur » l’algorithme. Le problème c’est qu’aujourd’hui les données que peuvent rassembler les data brokers, ces gigantesques agrégateurs de données, viennent de sources infinies. Par exemple on a découvert, lors de l’affaire Cambridge Analytica, que Facebook accumulait des données de santé en masse y compris sur des gens qui n’étaient pas abonnés à Facebook, simplement par le biais, par le truchement des relations qu’elles avaient avec des personnes qui étaient sur Facebook et par les informations qu’on pouvait collecter d’elles au travers de leur navigation sur des pages où il y avait de scripts Facebook.
Par définition, on se rend compte aujourd’hui que la possibilité de ne pas alimenter les profils qui contiennent chez ces data brokers parfois des milliers de paramètres différents sur une personne. Le journaliste du Financial Times qui a fait une grande enquête sur eux, qui portait un titre marrant, il disait : « Ces sociétés sont devenues les étoiles de la mort de la vie privée » en reprenant la métaphore de Star Wars. Le journaliste a découvert dans son profil chez l’un d’eux, je crois que c’était Experian ou Acxiom, qu’il était à risque pour des maladies du rein, chose qu’il ne savait pas et qui lui a été confirmée par la suite par son médecin.
Je pense que le fait de se cacher [devient difficile, voire impossible, Note de l'intervenant] c’était justement le titre du bouquin de Greenwald sur Snowden, Nulle part où se cacher. Je pense qu’aujourd’hui, vu l’ampleur de ces sociétés et vu les liens qu’elles entretiennent les unes avec les autres, cela devient quasiment impossible. J’adhère totalement à l’idée que le microtargeting est toxique. Tant d’un point de vue politique que d’un point de vue sociologique, il est toxique, mais je crois qu’il faut aller plus loin. Aujourd’hui, c’est d’ailleurs ce que réclamait Elizabeth Warren, la candidate démocrate à la primaire, je crois qu’il nous faut sérieusement envisager le démantèlement de ces sociétés. Je précise que les rachats récents de WhatsApp, d’Instagram, ont été faits, je dirais, en mentant à la Commission européenne. Les économistes de la Commission avaient eu l’occasion de s’expliquer en disant « en gros, on s’est fait avoir ». Je pense qu’aujourd’hui ces rachats successifs doivent être véritablement analysés. Est-ce que l’Europe peut, à elle seule, empêcher des fusions ? Oui, ça s’est vu dans le passé. Ça s’est vu dans le passé en particulier pour les turbines d’avion, des deals avec Honeywell n’ont pas pu se faire à la demande de l’Europe entre deux sociétés américaines, au début des années 2000. [Lors du rapprochement prévu entre General Electrics/Honeywell qui aurait eu pour conséquence de créer un quasi-monopole sur les turbines d’avion. L’Europe avait alors pu bloquer cette fusion entre deux sociétés américaines, Note de l'intervenant]. Aujourd’hui empêcher Facebook de racheter sa prochaine proie pour consolider encore plus son pouvoir ce n’est pas de la science-fiction, c’est une possibilité. On en a parlé, le fait aujourd’hui ne plus pouvoir transférer les données des Européens aux États-Unis change la donne. Le magazine Fortune parlait hier d’un possible chaos pour le commerce électrique, je ne sais pas s’il faut aller aussi loin, mais de fait on voit bien qu’on est dans une période où les risques [juridiques et économiques, Note de l'intervenant] par rapport à ces sociétés peuvent venir de l’Europe. Est-ce qu’on doit continuer à faire comme si de rien n’était, comme malheureusement ça a été trop le cas dans les dernières années ? Non. Est-ce qu’on a des instruments ? Oui, et je pense que c’est un des points sur lesquels on doit absolument renouveler la doctrine, c’est qu’on n’a pas, dans la période récente, eu une doctrine de politique industrielle européenne ou française à la hauteur des enjeux. Donc quelque part on s’est, je dirais, confiés – Tariq a eu l’occasion de parler de la France qui s’est vendue aux GAFAM lors de ces 10 ou 15 dernières années.

Sky : Qui s’est vendue ou prostituée ?

Bernard Benhamou : Je ne reprendrais pas le terme, mais je dirais qu’il y a eu une sorte de complaisance et le dernier en date qui a fait encore l’objet de questions9 au gouvernement là-dessus hier, c’est effectivement le Health Data Hub, ce gigantesque agrégateur de données de santé dont même tous les spécialistes disent que c’est un cadeau infini qui vient d’être fait à Microsoft. Monsieur Didier Sicard, spécialiste de l’éthique médicale [ex-président du Comité consultatif national d’éthique], a eu l’occasion de se prononcer récemment là-dessus et beaucoup de parlementaires de tous les bords, y compris de la majorité, se sont déclarés hostiles à ce principe. On doit réfléchir autrement. On ne doit pas simplement essayer d’infléchir un tout petit peu la courbe, on doit se dire que un, nous devons créer une industrie européenne et nous en avons les cerveaux, nous en avons les secteurs, les filières. Yann Le Cun, que citait Tariq tout à l’heure, dirige le pôle d’intelligence artificielle de Facebook, mais on pourrait citer bien d’autres Français dans la Silicon Valley, ingénieurs de très haut niveau. On a largement les talents, simplement on n’a pas articulé une politique comme on l’avait fait dans les années 60/70 sur des secteurs stratégiques aussi bien dans le transport que dans l‘énergie que justement dans le calcul, dans les technologies. On ne l’a pas fait et effectivement il y a une sorte de renoncement progressif, de résignation qui s’est installée. Cette résignation n’est pas une fatalité, du tout ! Du tout.

Tariq Krim : Je peux parler ?

Sky : Permets-toi et prends ton temps.

Tariq Krim : Il y a en fait un paradoxe incroyable c’est que les deux technologies de domination du Web à la fois par la Chine et par les États-Unis ont été inventées en Europe.

Bernard Benhamou : En Europe. En France même.

Tariq Krim : Linux et le Web.

Bernard Benhamou : Et TCP/IP, c’est-à-dire la brique fondamentale de l’Internet, aux dires même de Vinton Cerf, a été élaborée, conceptualisée par un certain Louis Pouzin10, très peu connu des Français, mais qui a été l’architecte des premiers réseaux avec des datagrammes, avec le projet Cyclades, etc. Il a même été récompensé par la reine d’Angleterre pour sa contribution à la création de l’Internet. On se rend compte que nous avons laissé passer, et le Web a été inventé au CERN à Genève dans un laboratoire européen, nous n’avons rien fait de toutes ces technologies.

Tariq Krim : Ce n’est pas qu’on n’en a rien fait. Il faut voir que derrière la technologie il y a des idéologies.

Sky : J’en profite pour poser une question : les plateformes dominantes ont-elles des biais idéologiques ?

Tariq Krim : Justement, historiquement. En ce moment je reviens aux fondamentaux, à l’histoire de la technologie, se dire pourquoi on est là, pourquoi on est là avec des plateformes comme les GAFAM d’un côté et, de l’autre côté, les plateformes chinoises ? Il y a plusieurs choses.
La première c’est d’un point de vue de la technologie : on a deux visions qui se sont toujours opposées.
La première c’était l’idée que la machine sert à augmenter l’être humain, c’est une vision humaniste, c’est Douglas Engelbart11, le type qui a tout inventé, le desktop, la souris, il était à Stanford. Sa vision c’est de dire l’ordinateur, Steve jobs le disait très bien, il disait bicycle for the mind, « un vélo pour l’esprit ». C’est-à-dire que grâce à la machine on était capable de faire plus.
Et de l’autre côté, à peu près à 500 mètres plus loin à Stanford, il y avait John Mc Carthy12, l’un des inventeurs de l’intelligence artificielle, et sa vision c’était « la machine va remplacer le cerveau humain ».
Ces deux visions, en fait, sont tombées court parce qu’il a fallu attendre le Macintosh pour que la vision, on va dire de l’interface, se développe, et il a fallu attendre des années pour que la vision de l’intelligence artificielle décolle.

Sky : C’est-à-dire les pipe-lines de données pour pouvoir entraîner dans l’intelligence artificielle.

Tariq Krim : C’est ça. Et ce qui est drôle c’est que dans une conversation privée que j’avais eue avec un des deux fondateurs de Google, il le dit assez ouvertement – je ne l’ai jamais entendu le dire publiquement – que l’IA c’est quelque chose qu’ils ont découvert. Ils ont découvert, à un moment donné, qu’avec toutes les données qu’ils avaient ils pouvaient faire des choses, ça n’a jamais été quelque chose qui a été pensé. Google était plutôt dans la vision très utilitaire de l’Internet : on a une question, une réponse ; on est capable de répondre, c’était l’Internet de tout ce qui était pratique.
Ce qui s’est passé c’est que d’un point de vue de l’idéologie politique, par contre, on a trois visions : on a une vision américaine, une vision russe et une vision européenne.
La vision américaine c’est la vision des libertariens, c’est celle qui a donné finalement 30-40 ans plus tard Facebook. C’est « en tant qu’individu, l’informatique me donne le pouvoir d’être un individu ». Ce qui est curieux c’est que cette vision a été totalement effacée puisque maintenant le pouvoir d’être individu a quasiment disparu.
Pendant les années 60 c’est fascinant parce que se développe ce qu’on a appelé la cybernétique. La cybernétique se développe notamment chez les militaires parce qu’ils étaient intéressés à l’idée d’automatiser plein de choses, notamment les missiles, et en Russie il y a eu ce qu’on a appelé la cybernétique sociale. Je suis en train de découvrir des choses incroyables notamment cette personne exceptionnelle qui s’appelle Anatoly Kitov13, qui a compris très tôt que la vision de la cybernétique sociale c’était d’algorithmiser le plan quinquennal ; la Russie organisait des plans, planifiait tout, et on s’est dit « on va utiliser la machine pour organiser les gens ». En fait c’était la vision de Facebook et de Google aujourd’hui, 40 ans avant – 40 ans qu’est-ce que je dis, c’était les années 60 –, mais c’est la vision qui a été exportée ensuite en Chine et qui, à mon avis, est un des fondements idéologiques du crédit social. La technologie doit servir non pas à manipuler les gens individuellement, ce qui est le cas de Facebook, mais à construire une forme d’harmonie technologique en identifiant les mauvais et les bons comportements. En Chine on vous dit « tu ne peux pas faire ça, si tu vas tard le soir acheter une bouteille de gin ton crédit baisse ». Cette idée qu’on va gérer l’ensemble de la population, alors que la vision de Facebook est une vision plus libertarienne, c’était l’individu.
En Europe, on l’oublie, dans les années 90 il y a une vision communautaire, cette idée que la technologie doit servir à l’ensemble de la société. C’est une vision qui démarre avec le Chaos Computer Club14 en Allemagne dans les années 80. Linux c’est exactement ça, c’est on développe des choses et on les met à disposition. Je rappelle que le Web c’est « pas de pattern, pas de patent, rien, tout le monde peut l’utiliser ». Donc cette idée que nous allons créer de la technologie qui va servir au bien-être de l’ensemble.
Le problème c’est que cette vision qui est fantastique, qui est une vision…

Sky : Qui perdure !

Tariq Krim : À un moment on a dit « on est nuls, on annule, on va laisser cette vision ».
Ce qui me dérange le plus ce n’est pas tellement la question technologique, la technologie on peut toujours mettre des gens bons, mais pour faire quoi ? Aujourd’hui ce que l’Europe doit montrer, notamment sur les données, c’est comment on construit quelque chose qui est bénéfique à l’ensemble. Et ça, malheureusement, on a échoué ; on a échoué technologiquement, on a échoué idéologiquement, on a échoué politiquement. Il y a plein de raisons, on pourra en discuter, mais on a échoué, pour moi c’est le véritable échec. Et la question de la souveraineté n’est pas uniquement technologique, ce n’est pas de dire « on ne va pas héberger nos données », c’est : est-ce qu’on doit collecter les données ? Pour quoi faire ? Quel est le bénéfice à court terme, moyen terme et long terme ? Et ça c’est une conversation qu’il faut qu’on arrive à faire ouvrir.

Sky : Bernard.

Bernard Benhamou : De la même manière qu’il y a quelques années on a eu des débats sur la bioéthique qui passionnaient non seulement les parlementaires mais même les Français parce qu’effectivement ils étaient capables d’identifier les sujets sur la filiation, sur les manipulations génétiques, ils étaient très vite impliqués. Or, les débats sur les technologies sont plus compliqués à faire comprendre à un large public et pour avoir été de ceux qui ont tenté de le faire, on se rend bien compte de la difficulté, mais je crois qu’on est en train progressivement d’avoir des gens qui demandent à comprendre, étrangement. On parlait effectivement du crédit social, étrangement l’étape d’après maintenant pour le régime chinois, c’est établir une cartographie génétique totale de la population comme a pu le montrer le New-York Times il n’y a pas longtemps. On va donc passer du « crédit social » au « génome social », on va passer, pour les amateurs de science-fiction, de Minority Report à Gattaca, ou un mix des deux. C’est cette dérive que nous devons conjurer. Pourquoi nous, Européens, avons été si méfiants par rapport à la NSA ? Quand je dis nous Européens, plus précisément nos amis Allemands que nous-mêmes Français, sensibles à ces questions, parce que justement il y avait un passé de Stasi, d’écoutes, etc., et sur les manipulations génétiques parce qu’il y avait aussi une idéologie il y a 70-80 ans de ça et qui était terrible par rapport à cette notion de race supérieure, etc. On voit bien que les mécanismes de défense que nous avons développés par rapport à la vie privée n’existent pas du tout de la même manière aux États-Unis ; elle n’est pas du tout codifiée de la même manière, protégée de la même manière. Aux États-Unis, la vie privée était un droit du consommateur. Pour nous Européens c’est un droit fondamental, c’est un droit élémentaire de l’humain.
Eh bien je crois effectivement que c’est cette vision-là qu’on doit justement essayer de faire valoir. Paul Nemitz qui s’occupe des affaires juridiques de la Commission européenne disait « peut-être que la protection des données deviendra pour les années 2010/2020 ce que l’écologie a été dans les années 80 et auparavant ». Au départ, au tout début, l’écologie apparaissait comme politiquement farfelue, aujourd’hui elle apparaît comme indispensable.
De la même manière, ce qui nous paraît encore difficile parce qu’on se dit interdire le micro-ciblage, éviter effectivement ces concentrations de pouvoir infini autour de quelques sociétés américaines ou chinoises puisqu’il y a les deux maintenant, typiquement ça apparaît difficile, mais, de fait, on voit bien que c’est le seul chemin possible. Sinon c’est la tenaille sino-américaine avec d’un côté une dérive totale autour des sociétés qui accumulent les données et, de l’autre côté, un régime chinois qui accumule des outils de surveillance, de contrôle, d’ingénierie sociale, de plus en plus inquiétants. On le voit y compris sur des minorités ethniques, puisque parmi les individus qui seraient le plus directement ciblés figureront…

Sky : Les Ouïghours.

Bernard Benhamou : Exactement, les minorités ethniques et religieuses. On voit bien que là il y a, je dirais, un basculement [politique] parce que, en gros, on voit qu’il y a un risque bien au-delà de la seule sphère économique.

Sky : Je vais me faire l’avocat du diable, donc bingo, un point, c’est un truc entre nous. Le régime chinois du flicage par crédit social, ça va séduire beaucoup de politiciens.

Bernard Benhamou : Ça en séduit déjà ! C’est-à-dire qu’à l’heure actuelle ce que l’on appelle les démocraties illibérales, peu importe, sont effectivement dirigées par des individus qui ont très bien compris l’usage qu’ils pourraient faire d’un système de ce genre. Simplement il se trouve que, je dirais, la Chine a un avantage, entre guillemets, « compétitif » parce qu’elle est capable de le déployer [et de l'expérimenter, Note de l'intervenant] sur un petit peu moins d’un quart de l’humanité. C’est « un angle d’attaque » qui est infiniment plus grand. Mais que des responsables, par exemple dans les équipes de Trump et de Bolsonaro, soient fascinés par des outils de contrôle social ce n’est pas une nouveauté ! Ce n’est pas une nouveauté. Quelque part la volonté d’éteindre toute forme de contestation de manière radicale, voire violente comme ça a pu se faire ces derniers temps.

Sky : En France ?

Bernard Benhamou : En France parfois. Parfois ! Qu’il y ait une fascination technologique, qu’il y ait une forme d’ubris technologique c'est certain, et c’est d’ailleurs peut-être pour ça la raison de la complaisance dont on parlait par rapport à ces sociétés [dont font preuve certains politiques vis-à-vis des ces sociétés, Note de l'intervenant] c’est qu’il y a une forme de fascination pas simplement économique ou libérale, non, c’est aussi une fascination sur les capacités de pouvoir et d’influence [que peuvent donner ces technologies, Note de l'intervenant]. Pour un politique, avoir une influence absolue sur des individus, pour un politique je dirais modestement armé d’un point de vue moral, c’est quelque chose de très tentant.

Tariq Krim : Si je peux me permettre là-dessus, je donne toujours une anecdote. J’étais à la conférence sur l’intelligence artificielle et juste avant que notre président Emmanuel Macron.

Sky : Notre suprême leader.

Tariq Krim : Suprême leader, si tu veux, évoque le sujet, mon téléphone vibre, je prends mon téléphone et c’était une notification de Facebook pour m’annoncer ce que j’allais voir. Je me suis dit waouh !
Le problème du politique et c’est en général vrai aussi pour toute la question du numérique en France — je prends quelques instants mon ancienne casquette de vice-président du Conseil national du numérique — c’est qu'en France le numérique c’est de la comm’ ! Déjà, malheureusement, tous nos ministres ont fait Sciences Po ou HEC, si on ne fait pas ça, on n’est pas ministre et, surtout, on a une vision extrêmement communicationnelle. Donc ce sont les réseaux sociaux, le buzz, le clash. Ce qui est fascinant c’est qu’on leur donne l’illusion de ce pouvoir. Je pense que Facebook, Twitter, les deux d’ailleurs ont choisi, je crois, des énarques comme lobbyistes, mais aussi comme patrons. Ça montre qu’ils avaient très bien compris comment aborder le marché. Mais surtout il y a cette illusion du pouvoir, du nombre de followers, de la course contre la montre et, en fait, ce qu’on fait quand on est politique et qu’on diffuse des messages sur Facebook, on améliore le ranking de ces plateformes, donc en fait on améliore le microtargeting. En ayant l’impression d’avoir un acte citoyen, en tout cas un pouvoir, on oublie qu’en fait on alimente en données, en clics. Le simple fait de regarder, de ne pas regarder, de regarder 20 secondes un discours, tout ça ce sont des informations qui ne vont pas être utilisées par les partis politiques. Si on demande à tous les partis politiques français : est-ce que vous avez des informations très précises sur l’usage de vos internautes ?, ils ne savent pas, par contre Facebook a collecté toutes ces données et va s’en servir derrière pour du targeting publicitaire.
En fait on a aussi un problème essentiel c’est qu’on n’a pas compris. Je pense que tu as dû le faire, on a essayé d’expliquer aux politiques que le numérique va au-delà de la comm’, il faut comprendre l’algorithmie, il faut comprendre un certain nombre de choses assez basiques, il ne faut même pas aller dans les détails.

Sky : Tu as déjà discuté avec Cédric O ?

Tariq Krim : Non, je ne le connais pas. Je l’ai vu sur votre excellente émission.
Ce qui était intéressant avec le CNNum15, le Conseil national du numérique, c’est qu’on voyait beaucoup de politiques, on était censés normalement recevoir les lois avant qu’elles sortent, on devait donc conseiller le gouvernement, on les a quasiment toutes eues sauf la loi sur le renseignement, comme par hasard elle n’est pas passée par nous et c’est là, après, que j’ai compris. On parlait de filière numérique, c’est vrai qu’en France on a quand même une filière sur la surveillance qui est consistante à travers sur les âges. Sur les autres on n’a jamais eu de vision à long terme. C’est-à-dire que dès qu’on a un nouveau ministre ou dès qu’on a un nouveau gouvernement il y a une nouvelle dynamique. En ce moment on a la startup nation qui est plus ou moins, à mon avis, un peu arrivée à la fin.

Sky : La bullshit nation, non ?

Tariq Krim : Je suis un fan, j’ai toujours été fan des startups. Quand j’étais tout jeune j’étais fasciné par Steve Jobs, par Commodore, par toutes ces boîtes d’entrepreneurs, c’était fantastique. Et en France on a ce biais, ce travers, je ne sais pas comment dire, on institutionnalise tout. On a institutionnalisé le rap, la techno, toutes les cultures le plus underground et la startup qui est quand même un truc de rebelles à la base, de gens qui n’ont pas fait d’études, de drop-out, en France c‘est devenu l’inverse, c’est, d’une certaine manière, la continuité d’une forme d’élite sociale où on donne immédiatement à des gamins qui sortent de l’école des statuts de cadre sup. Il y a ça et puis, de l’autre côté, il y a tous les autres qui sont nés du mauvais coté de l’écran, c’est-à-dire que ce sont des pixels qui déplacent sur Deliveroo, sur Uber, et eux n’ont même pas le droit à la retraite, à des choses basiques. On a aussi construit un système qui montre ses limites.
Aux États-Unis c’est peu normal parce qu’on découvre, avec la crise du covid, que le système explose complètement, même si Amazon est en train de faire une chose assez incroyable, ils ont dit on va faire un système de e-commerce complètement covid free, on va vraiment travailler à optimiser la chaîne de développement et aujourd’hui ils profitent, en trois mois ils ont quasiment annihilé tous leurs concurrents, à part Walmart, il n’y a plus personne qui peut leur faire de la concurrence.
C’est pareil avec Netflix. On sait que le festival de Cannes s'est toujours opposé aux films qui vont passer sur Netflix, on ne les met pas, et cette année on demande à Netflix, Amazon, je ne sais qui d’autre, en streaming, de tout mettre en ligne. On a ce problème : à chaque fois on veut, d’un point de vue politique, avancer dans une direction, donc là la startup nation. Avec Hollande ce n’est pas clair. Je pense que Sarkozy ne savait pas trop, c’était les débuts, mais à l’époque de Hollande on savait pour Snowden, on savait pour les plateformes.

Sky : Pourquoi ? Parce que Axelle Lemaire.

Tariq Krim : Elle, mais Fleur Pellerin aussi. Les deux, en fait, ont eu, je ne veux pas dire un double discours, il fallait dire qu’on fait les choses et en même temps, en coulisses, on a laissé la fameuse ligne rouge dont on parlait, c’est-à-dire des choses qui n’auraient pas dû être faites.
Je vais vous donner une anecdote. Son nom m’échappe, l’ancien patron de l’ANSSI16 qui est maintenant directeur technique.

Sky : Poupard.

Tariq Krim : Poupard c’est maintenant ; celui qui était juste avant lui.

Sky : Celui qui était vraiment coincé, qui se prenait pour…

Tariq Krim : Qui est maintenant à la direction de la DGSE.

Bernard Benhamou : Du renseignement français.

Sky : Il est à la direction de la DGSE lui ?

Tariq Krim : Technique, je crois, directeur technique.

Sky : Technique, heureusement !

Tariq Krim : Il y avait une réunion, on avait discuté et on a parlé de plateformes. En fait, le discours était parfaitement rodé. J’ai eu aussi une conversation avec Poupard. J’ai trouvé les deux excellents sur le discours, j’ai appris que Poupard17 était aussi excellent en crypto, c’est quelqu’un que j’ai trouvé très sympathique, qui, en plus, est vraiment une brute épaisse dans ces domaines, ce n’est pas un touriste, mais leur discours sur la question de la souveraineté, sur la question des plateformes, n’était pas un discours naïf. La première question que je leur pose à chaque fois c’est : est-ce qu’il y a des gens qui vous écoutent ? Est-ce que vous avez la moindre influence ? Aujourd’hui, moi je préférerais que quelqu’un comme Poupard soit ministre du numérique.

Sky : Juste pour l’anecdote, le précédent avant Poupard, je l’avais attrapé à l’École de Guerre, je lui avait posé une question sur les hackers, en gros il m’a dit qu’il n’en avait rien à foutre des hackers. Tu vois le niveau !
Bernard.

Bernard Benhamou : Je crois effectivement qu’il y a eu un problème d’éducation et d’accompagnement du politique par rapport à ces questions. Pour être militant dans ces domaines depuis longtemps, je vois bien les difficultés. Je rejoins l’idée que trop souvent ces technologies ont été vécues comme un outil cosmétique [par nos politiques, Note de l'intervenant]. Donc en lieu et place de mettre une coordination sur les différents sujets clefs – sécurité, éducation, culture, etc. – et d’avoir, comme ça s’est fait sous l’ère Obama, un chief technology officer, c’est-à-dire quelqu’un qui coordonne les technologies fédérales, on a à chaque fois des gens qui ont fonctionné en silos. Par définition on n’a pas une prise en main de ces questions au niveau où elles le mériteraient. Donc on a laissé, effectivement, dériver progressivement ces sujets et surtout on s’est abstenu, voire c’est devenu un mot tabou, le fait de dire « il nous faut créer des conditions de politique industrielle, enfin des actions relevant d'une réelle politique industrielle [dans le domaine des technologies, Note de l'intervenant] ». Tout à l’heure Tariq évoquait les grands entrepreneurs de la Silicon Valley, je citerais une autre économiste, Mariana Mazzucato, qui disait « il n’y a pas une seule des technologies clefs de l’iPhone qui n’ait été, de près ou de loin, financée par des crédits fédéraux américains ».

Tariq Krim : Et français, puisque pendant longtemps les puces STMicroelectronics étaient dans l'iPhone.

Sky : Même Tor18 avait été financé.

Bernard Benhamou : Bien sûr !

Sky : Pourquoi tu rigoles Tariq ? Tu rigoles pour la même chose que moi ! C’est ça ?

Bernard Benhamou : Par définition, on se rend compte que là où aux États-Unis on a créé, aidé des Elon Musk avec des contrats d’État de la NASA [pour Space X, Note de l'intervenant], on a aidé toutes les grandes entreprises à se développer avec des crédits et des commandes fédérales et locales, nous, en France, dès que l’on parle de ça c'est presque un tabou. Le mot que l’on agite maintenant c’est le Small Business Act. Small Business Act c’est l’orientation d’une partie de la commande publique, donc de l’argent du contribuable, vers des petites sociétés, des PME, ce qui se fait aux États-Unis depuis plus de 50 ans. Ce n’est pas compliqué, dès que vous en parlez vous vous heurtez à une vision quasiment dogmatique, certains diraient de l'ordolibéralisme qui est de dire « non, vous êtes en train de vous en prendre à l’équilibre du marché, donc il ne faut surtout pas ». Eh bien non, aux États-Unis cela a fonctionné. Leur interventionnisme est l'un de leurs secrets les mieux cachés. Ils essayent de mettre en avant des figures charismatiques,Jeff Bezos, Elon Musk, anciennement Steve Jobs,Bill Gates, en gommant toute l’action gouvernementale justement pour essayer de leur donner des armes le plus tôt possible pour ça [pour leur développement, ce qui a permis à ces entrepreneurs de créer des empires, Note de l'intervenant].

Tariq Krim : Je voulais juste revenir là-dessus parce que je suis absolument d’accord avec ce point.
Lors d’un débat sur le Health Data Hub, j’avais écouté notre ex-ministre du numérique, Cédric O, parler : « Mais vous imaginez, Amazon ils mettent – je crois qu’il parlait de 20 milliards – dans le cloud par an ».

Sky : Qui est le nouveau ministre ?

Tariq Krim : On ne sait pas.

Sky : 20 milliards dans le cloud.

Bernard Benhamou : Ça a d’ailleurs été repris hier par Véran.

Tariq Krim : Absolument ! « 20 milliards dans le cloud, on ne peut pas s’opposer à ça. »
Je pense que ce sont des gens qui ont une vision libérale à la française, c’est-à-dire qu’ils pensent que le marché est parfait : s’ils sont là c’est parce qu’ils sont bons. On oublie qu’on a enlevé les taxes sur le e-commerce. J’ai un copain qui a fait l‘IPO Initial Public Offering] d’Amazon il y a 20 ans, l’entrée en bourse, ils avaient levé 85 millions. Ce n’est rien ! Ils ont transformé ça en une machine de guerre incroyable. Je pense que Jeff Bezos est fondamentalement aujourd’hui l’entrepreneur vivant le plus impressionnant. Je le préfère à Elon Musk, même si je pense qu’il est très malin et très impressionnant parce qu’il a construit un empire, mais il l’a construit avec l’aide de l’État américain, avec la diplomatie américaine. Je rappelle que la diplomatie américaine demande à Twitter de ne pas mettre à jour, au moment des troubles de la révolution en Iran, le fait que l’État est derrière. Je sais que vous avez fait une émission sur le Cloud Act, mais toute la régulation et la réglementation est faite au service des boîtes américaines.
Eric Schmidt a quitté Google, maintenant il est conseiller du Pentagone, et il a publié, vous pouvez le trouver facilement sur Internet, un document PDF de 80 pages sur le risque de la Chine, puisqu’on est en guerre froide technologique avec la Chine depuis que Trump est arrivé, on l’était un peu mais là c’est un peu plus visible, et c’est fascinant quand vous lisez ce document. Je ne sais pas si quelqu’un en France aurait été capable de faire quelque chose d’aussi bon et surtout on prend conscience du fait qu’on est dans une logique où les États-Unis sont derrière toutes leurs entreprises.

Sky : Ou les entreprises américaines font partie du bras armé de la diplomatie et de la politique extérieure américaine.

Tariq Krim : Absolument. Complètement !

Sky : Est-ce que vous avez lu Raymond Aron ? Un peu ? Non !

Bernard Benhamou : En d’autres temps, oui.

Tariq Krim : Un peu moins.
Je voulais simplement dire que si ces sociétés sont là où elles sont, elles sont là parce qu’elles sont très bonnes, mais parce que la machine américaine, et c’est normal, leur a enlevé toutes les contraintes. Il y a un problème de taxes ? On vous enlève les taxes, on défiscalise.

Bernard Benhamou : Directes. Indirectes.

Sky : Et en échange on garde une petite main à l’intérieur.

Tariq Krim : J’ai posé la question à un ami qui était directeur de la sécurité chez Google, après il est allé chez The Intercept.

Sky : Il était chez The Intercept pour faire des enquêtes ?

Tariq Krim : Non. Il m’expliquait comment ça marche. En fait, chez Google, Facebook, il y a des gens embedded, donc des gens du renseignement, mais ils sont choisis par les headcheers. C’est-à-dire qu’en fait ils ne peuvent pas prendre n’importe qui, ils ont besoin d’avoir des gens habilités, mais ils ont un certain nombre de personnes qui sont là, qui ne reportent qu’au CIO [chief information officer] et qui exécutent les fameuses requêtes FISA [Foreign Intelligence Surveillance Act], les fameuses requêtes qui sont demandées pour accéder à des données, donc ils font ça. Il y a effectivement un contingent de gens. C’est un système qui est un peu limite mais qui est légal. Simplement, ce qu’ils ont fait, c’est qu’il y a des juges qu’on peut appeler à n’importe quelle heure de la journée, on peut leur demander autant de requêtes qu’on veut et ils signent, c’est quasiment automatisé, mais c’est contrôlé. En tout cas, tel qu’on me l’a expliqué, c’est officiel, plein de gens savent. Les employés ne savent pas qui c’est, évidemment, mais les patrons, donc à l’époque Larry Page, Mark Zuckerberg et les autres, savent. Je dirais que d’une certaine manière la relation entre le militaire, le renseignement et l’Internet a toujours été relativement souple !

Sky : Dis-moi, quand tu en repères un, tu gagnes un tee-shirt ou pas ?

Tariq Krim : Peut-être !

Sky : Avec marqué I spot the fed? [« J'ai repéré un agent fédéral », jeu potache à la grande convention de hackers DEFCON, NdT]

Tariq Krim : Il y a des années on est allés dans une conférence de hackers, Hacking in Progress, c’était en Hollande, organisée par le groupe de pirates qui s’appelait XS4ALL, des types fantastiques, on a rencontré plein de gens. Les gens qui faisaient partie de la NSA, parce qu’il y en avait pas mal, devaient avoir un badge orange. Il y en a plein qui n’avaient mis de badge orange, donc il fallait spotter ; à la fin ils ont tous été détectés. À l’époque on avait fait une conférence sur Echelon, un petit truc, on était une quinzaine et il y a trois types qui sont venus, un peu plus âgés et qui nous ont dit « ce n’est pas exactement comme ça ». C’était fascinant. Ce qui m’a toujours fasciné dans la NSA, un truc qui me fascine presque depuis le milieu des années 80, c’est comment on est capable d’analyser autant d’informations, de stocker autant d’informations. Si le savoir-faire de la NSA était utilisé dans les bibliothèques, c’est-à-dire dans une vision un peu plus positive ! C’est incroyable ! Il ne faut pas oublier que NeXT, qui était la boîte de Steve Jobs, dont tout le monde pensait qu’elle était morte, en fait elle vendait toutes ses machines à la CIA, à la NSA, elle n’avait pas le droit de le dire. Quand ils ont été rachetés par Apple on a fini par se rendre compte que ça fonctionnait. Des gens comme Steve Jobs vendait à ces agences. Google a eu des financements puisqu’après le 11 septembre quasiment tout l’argent est parti dans le…

Sky : Contre-terrorisme.

Tariq Krim : Contre-terrorisme et l’analyse sémantique, tous ces outils, tout le monde s’est positionné. D’ailleurs Palantir, d’une certaine manière, a un peu profité de ça. Google aussi a eu des subventions. Il se trouve que le type full discloser, le type qui a créé In-Q-Tel, le fonds…

Bernard Benhamou : Un fonds d’investissement de la CIA.

Tariq Krim : A été un de mes investisseurs quand je faisais Netvibes, c’est devenu le general partner d’Axcel, Axcel qui était l’investisseur de Facebook, de plein d’autres boîtes.
Il y a toujours eu des relations plutôt business parce que, comme vous le savez, aux États-Unis le budget du Pentagone est, je ne vais même pas dire astronomique, donc tout le monde, à commencer par les nouveaux, Palantir et les autres, ce qu’on appelle le nouveau consortium milataro-industriel, n’ont qu’une vue c’est de prendre une part du gâteau. Le projet JEDI [Joint Enterprise Defense Infrastructure] qui devait normalement revenir à Amazon et qui est arrivé à Microsoft, c’était dix milliards.

Sky : Explique ce qu’est le projet JEDI. Juste en gros.

Bernard Benhamou : En gros, ce marché technologique du Pentagone a donné lieu à un procès, ce qui est quand même assez inhabituel de la part d’un géant américain, du fait de leur exclusion manifestement dirigée contre eux par Trump, a porté plainte contre le Pentagone. Vous imaginez : une grande société porter plainte contre le Pentagone et effectivement réussir à geler le marché.

Tariq Krim : Juste pour répondre, JEDI c’était le projet de cloud du Pentagone.

Bernard Benhamou : Sur ces sujets je vous recommande l’excellent ouvrage de Shane Harris qui s’appelle @War, avec l’arobase War sur le lobby militaro-internet aux États-Unis. C’est aussi une belle description de l’histoire des liens entre les deux.
Quelque part, on a spontanément tendance à se dire que c’est mal [que les liens entre militaires et technologies sont forcément toxiques, Note de l'intervenant]. Oui et non ! Que militaires aient été historiquement avides de nouvelles technologies, c’est vrai dans tous les pays. Que les innovations, je citais tout à l’heure les innovations de l’iPhone depuis le tactile, l’intelligence artificielle, le système Siri, etc., aient d’abord été développées dans des enceintes militaires, à des fins militaires, c'est un fait. On rappellera quand même que les premières recherches sur les interfaces en réalité augmentée, étaient destinées aux systèmes militaires de visée dite « tête haute » pour les pilotes d’avion de chasse.
À partir du moment où on a des budgets qui sont hors de contrôle, comme on le voit en ce moment au point qu'on est en train de s’interroger même aux États-Unis maintenant sur le fait que ces budgets soient de hors de contrôle, le problème se pose. Mais que les militaires puissent être, dans le cadre d’une politique industrielle intelligemment conçue, à l’origine et accompagner des sociétés et des technologies dans ces domaines, en tant que tel ce n’est pas choquant. La preuve en est, on rappellera pour ceux qui auraient vécu dans une cave ces 50 dernières années, que l’Internet est né de projets menés par le Département de la Recherche militaire américaine, le DARPA.

Tariq Krim : Il y a 30 ans alors.

Bernard Benhamou : Ceci est une datation que je ne reprendrais pas. Un homme politique français a récemment écrit « il y a 30 ans naissait l’Internet », confondant la naissance du Web et celle de l’Internet.

Sky : Tariq, combien de fois on a essayé de te recruter ?

Tariq Krim : Une fois.

Sky : C’était des Français ou c’était d’autres ?

Tariq Krim : C’était des Français, quand même !

Bernard Benhamou : Quand même !

Sky : Quand même !

Tariq Krim : J’étais à San Francisco avec la personne qui m’hébergeait, un type fantastique qui a été un pionner du MP3, et on avait un serveur, d’ailleurs on avait un nom de domaine assez cool à l’époque, on avait hackers.org, qu’on a perdu.

Sky : En quelle année ?

Tariq Krim : C’était en 1996. On hébergeait le site de Dorothée. Il y a des gens qui sont venus pirater le site, qui ont réussi, ils ont trouvé un rootkit et ils ont effacé plein de choses dont tous mes mails personnels. C’est une époque où j’étais assez sensible à ces questions. À l’époque je travaillais chez Sun Microsystems, une filiale entre Sun et Thomson et les types au-dessus, il y avait Shimomura, Dan Farmer, des gens qui avaient travaillé notamment sur SATAN [Security Administrator's Tool for Analyzing Networks], donc on a essayé de faire le tracé inverse. On s’est rendu compte qu’ils étaient passés par une université au Texas. On avait fait le chemin inverse. Et je ne sais pas pourquoi ça m’a fasciné, je n’avais jamais vraiment fait ça et j’ai passé presque un mois et demi.

Sky : Vous avez trouvé ?

Tariq Krim : Oui. Je vais raconter l’histoire.
Déjà on se retrouve avec le FBI parce que dès lors que ça sort, le FBI était en fait l’équivalent, il travaillait avec Interpol, c’est devenu un truc multi-réseaux parce qu’ils avaient fait ça dans plein d’autres universités. On est venu voir les personnes avec Gilles à l’époque, on a amené les listings, ils nous posaient des questions basiques. Donc on a dit « ils ont hackés tel serveur, ils sont passés sur ce serveur, ils sont passés sur ce serveur » et la personne qui était en face de nous – on était dans une pièce avec évidemment un micro, une vitre sans tain – nous dit « je vous interromps ici, est-ce que ce qu’ils ont fait est illégal ? » À ce moment-là on entend une porte s’ouvrir, quelqu’un arrive et dit I am taking it from there, donc « je prends » et on a retrouvé. La personne était basée au Portugal mais en fait c’était un Français. À la fin je l’ai eu au téléphone, sa mère m’a donné le numéro de son dorm room je l’ai appelé. Finalement je n’ai rien fait ! Qu’est-ce que je pouvais faire ?
Par contre, une personne que je ne nommerai pas parce que malheureusement maintenant elle n’est plus avec nous, avait eu son serveur en France hacké et elle a dit « je vais porter plainte ». J’ai dit « on a tous eu 17 ans, on ne va pas le faire ». Lui si. Suite à ça, la personne qui s’occupait de ça, le policier dont le nom m’échappe maintenant, qui s’occupait de la brigade autour de ça, m’a dit « est-ce que vous voulez faire ce genre de boulot ? » Et je lui ai répondu non.

Sky : Ils ont proposé combien ?

Tariq Krim : On n’en est pas arrivé là, il m’a dit « on aurait besoin de gens comme vous, de limiers ». J’ai dit « je ne suis pas un limier. C’est juste, à un moment donné, quelque chose de personnel qui est devenu une espèce d’obsession ». En plus j’ai appris énormément. J’allais voir les gens au premier étage qui me disaient « est-ce que tu as pensé à ça ? » C’est là que j’ai découvert qu’il y a des gens sur l’Internet qui pouvaient aller deux fois plus vite que la moyenne. On était en 1996, on était vraiment au tout début. Ça m’avait fasciné, mais ce n’était pas mon sujet. J’aimais bien les questions d’intelligence économique, j’en ai parlé de temps en temps, comme ça, avec quelques personnes des services. J’ai découvert après, je me suis beaucoup intéressé à ces questions de hacking et autres et, à un moment donné, j’en ai eu marre. Je me suis rendu compte que si on reste dans ce milieu on ne peut plus vivre, donc je suis reparti sur des choses plus fun, la musique en ligne, le MP3 qui est devenu après le piratage, Napster, toute cette période.
C’était une belle époque ! C’est l’époque qui me manque beaucoup parce que ce qu’on oublie c’est qu’avant l’ordinateur c’était le nôtre, c’était notre machine, notre disque dur, nos fichiers. Il n’y avait personne pour comptabiliser le nombre de fois que j’ai écouté telle musique, ce qui peut d’ailleurs avoir une implication politique ou pas, donc on n’avait pas cette analyse, on était dans un univers où la machine nous appartenait, c’était une forme de souveraineté personnelle. Un jour on a dispersé les choses dans le cloud et des gens avaient accès à ces choses. Quand on développe — et c’est pour ça que je n’aime pas l’idée de simplifier l’algorithmie — quand on développe un projet, ce que j’ai pu faire avec Netvibes19, Jolicloud20 et d’autres choses, on a un pouvoir sur l’utilisateur. Aujourd’hui on peut faire croire à l’utilisateur ce qu’on veut sur un écran. On peut lui mentir, lui raconter des bobards, on peut le manipuler et ça, ça demande, en fait, une véritable forme d’humilité qu’on n’a pas toujours. Je pense que ce qui s’est passé chez Facebook, chez Google et chez d’autres acteurs c’est qu’ils ont, à un moment donné, pété les plombs. Ils se sont dit « on sait mieux que les autres ». Et quand vous regardez les startups, c’est fascinant, vous avez le plus souvent des gens très jeunes et c’est volontaire.
En France, quand vous êtes développeur et que vous restez développeur tard vous êtes un looser, alors qu’aux États-Unis vous êtes ce qu’on appelle un « senior développeur ». James Gosling, qui avait fait le Java, était un senior développeur. J’ai vu des gens qui ont fait des bases de données dans les années 60/70 qui sont toujours bons, leur cerveau fonctionne, ils n’avaient pas envie de manager d’autres gens, ils avaient envie de vivre de leur passion. En France on n’a pas ça malheureusement. Dès qu’on passe ce niveau, il faut qu’on devienne manager. Et là je perds un peu de fil de ce que je veux dire parce que tu me regardes !

Sky : C’était très bien !

Tariq Krim : Je voulais juste revenir là-dessus. Le contrôle. On a perdu le contrôle de sa vie numérique et c’est pour ça que maintenant je parle beaucoup, je ne sais pas si on aura le temps de parler un peu de slow Web.

Sky : Après.

Tariq Krim : On fera ça après, je vais laisser Bernard.
Ce contrôle on l’a perdu et aujourd’hui il n’y a plus aucune autorité de régulation capable de nous redonner ce contrôle.
Souvent, Bernard, tu me dis « tu es nostalgique ». Je suis nostalgique d’un temps où on pouvait aller dans les aéroports sans avoir à passer deux heures avant ou après à se poser des questions, mais je suis aussi nostalgique d’un temps où la machine était un véritable compagnon. C’était un outil de confiance. Ce qui m’a fasciné avec l’ordinateur, quand on est très jeune et on a tous découvert son premier ordinateur, c‘est que la machine ne nous ment pas, la machine fait ce qu’on lui demande. Il y a cette relation unique que l’on construit.
Aujourd’hui, quand on démarre avec son premier ordinateur, c’est en fait un iPhone, on a un outil qui est déjà par définition perverti commercialement. Je trouve ça assez triste pour la génération qui aujourd’hui découvre et qui devrait apprendre qu’un ordinateur ça se démonte, ça se décompile, ça s’analyse et c’est ça qu’il faut qu’on arrive à apprendre à la jeune génération.

Sky : Bernard.

Bernard Benhamou : Je vote entièrement cette proposition. Le principe fondateur de l’Internet c’était le principe du end to end, c’est-à-dire que toutes les machines avaient les mêmes droits, les mêmes devoirs sur le réseau, ce qu’on a appelé par la suite neutralité du Net21. Il se trouve que maintenant on a centralisé le pouvoir autour de quelques plateformes [des GAFAM, Note de l'intervenant]. Donc oui, effectivement, il s'agit d’essayer d'éviter ça. Je dirais que la traduction politique de cette volonté c’est éviter que les GAFAM ne deviennent non pas omnipotents, ce qu’ils sont déjà, mais durablement omnipotents ce qu’ils pourraient être si on n’y prend pas garde.
Je dirais que parmi les sociétés qui sont moins connues des Français, mais certainement plus connues de vos auditeurs, on parlait de Palantir tout à l’heure, le fait que les renseignements intérieurs, donc la DGSI, aient reconduit leur contrat avec une société qui a été financée, conçue avec justement In-Q-Tel, sur les crédits de la CIA et très directement mêlée à l’appareil de renseignement américain et que ce soit cette même société qui ait essayé de gérer les données covid, qui l’a d’ailleurs obtenu en Angleterre, la France a refusé.
Il faut préciser que quand Palantir s'approche des autorités…

Sky : Qu’est-ce que c’est Palantir pour les newbies [débutants] qui sont là ?

Bernard Benhamou : Palantir22 c’est la société fondée pour analyser le big data dans la lutte antiterroriste aux États-Unis. Ce sont eux qui ont été les plus à même de développer un savoir-faire unique auprès de quasiment la totalité des agences de renseignement américaines. Lorsque vous regardez la liste des clients de Palantir, vous avez le gratin du renseignement et des sphères militaires américaines. Que cette société ait été choisie par la France pour les renseignements [l'analyse des renseignements, Note de l'intervenant] antiterroristes en France c’est déjà une erreur, que le contrat ait été reconduit en est une autre. Et là encore, moi je crois que la solution essentielle c’est éviter que ce genre de chose soit possible. C’est-à-dire que ça ne pose pas question dans l’esprit d’un politique de gérer et de faire gérer des données de ce genre – comme on en a parlé pour les données de santé qui sont infiniment cruciales pour les individus surtout en période de pandémie – que ça n’ait pas levé des drapeaux rouges dans l’esprit des gens, c’est la preuve qu’il y a eu une porosité, il y a eu une complaisance, il y a eu une forme effectivement de laisser-faire et je pense qu’il y a des réponses politiques [à apporter pour que cela ne soit plus possible à l’avenir, Note de l'intervenant].
Par rapport à ces mastodontes que sont devenus les GAFAM, qui ont perverti l’esprit pionner du Web et de l’Internet en général, je pense qu’il y a des solutions politiques. Je citerais un politique, qu’on a cité parlant de toute autre chose, en fait ce n’était pas lui, c’était Mauriac, je crois, « j’aime tellement l’Allemagne que j’aimerais qu’il y en ait plusieurs ». Moi je crois que j’aime tellement les GAFAM que j’aimerais qu’ils soient divisés en tout petits morceaux. Ou, pour être précis, que ces sociétés ne puissent pas en permanence utiliser leurs muscles monopolistiques pour empêcher effectivement toute forme d’existence industrielle dans ces domaines.

Sky : Pour cela, il faut un peu de courage politique, c’est ça ?

Bernard Benhamou : Absolument ! Il faut du muscle politique. Je dirais là-dessus que plus les temps se durcissent par rapport aux questions de manipulation des opinions publiques, de radicalisation, plus les politiques qui rechignaient à positionner sur les questions industrielles, de politique industrielle, quand il est question de leur survie à court terme dans le cadre électoral, tout d’un coup ils se révèlent beaucoup plus réactifs qu’on ne l’imaginait.
Là-dessus je dirais qu’on arrive à une période où effectivement l’inaction aura une traduction politique radicale. Et c’est le cas de le dire, radicale !

Sky : Il y a trois/quatre personnes qui nous ont demandé de vous faire parler autour de Aaron Swartz23. Tariq.

Tariq Krim : Je le connaissais pas mal puisqu’on a travaillé à l’époque, quand je faisais Netvibes, il était lié à la création de RSS, le format de syndication des news. C’est quelqu’un que j’ai évidemment toujours apprécié. Il y a plusieurs choses qui sont tristes.
Un, je pense que c’est quelqu’un qui était hypersensible, quelqu’un qui avait une vision humaniste du monde. Quand on parle de MP3, de Torrent, de Big Torrent, ce qui me fascine aujourd’hui c’est que la mémoire du monde, la vraie mémoire du monde, des films, les choses introuvables – quand on est cinéphile Nextflix c’est sympa mais soit ce sont des séries Z de SF avec des scénarios qu’on a déjà vu dans les années 90, soit ce sont des films des années 90 qu’on a déjà vus 50 fois et puis, de temps en temps, il y a une ou deux perles –, mais la vraie mémoire du monde elle est en ligne, elle se cache derrière Pirate Bay, derrière de services comme cela. Lui, par rapport au savoir scientifique, il avait aussi cette vision. C’est une vision que j’ai toujours partagée, parce que je pense qu’à un moment donné dans l’humanité, à un moment t il faut au moins que la moitié du savoir soit librement accessible. Le problème qu’on a aujourd’hui c’est que les brevets et les copyrights durent de plus en plus longtemps et on produit de plus en plus de choses. En fait, d’un point de vue mathématique, le nombre de choses qui sont librement accessibles se réduit.

Bernard Benhamou : On va peut-être préciser comment il a, malheureusement, terminé.

Tariq Krim : Oui, bien sûr.
La deuxième chose c’est que je pense que le MIT, une institution qui est aussi très fortement liée aux militaires.

Sky : Au début ils ont fait les bâtards quand même.

Tariq Krim : Le MIT a mal joué, a vraiment mal joué, je pense que c’est une tâche. Il y a ça, il y a évidemment l’histoire avec Epstein et c’est une vraie tâche. L’Internet a aussi besoin de héros. C’est un vrai héros aussi parce qu’il représente la personne qui était pure et je le pense vraiment ; ce n’était pas un intime mais c’est quelqu’un avec qui j’ai discuté plusieurs fois, que j’ai vu quand j’étais aux États-Unis, qui a quand même monté Reddit, on l’oublie. C’est-à-dire qu’Alexis et toute la bande c’étaient les tchatcheurs et c’était lui, en fait, qui délivrait le truc, qui est devenu aussi un produit ; il avait cette vision pure et je pense qu’il n’aimerait pas trop ce que c’est devenu.
On a besoin de héros. On a d’un côté Snowden aussi. Il y a plein de gens. Je suis fan de The Mentor qui était le manifeste hacker et Tron aussi qui était mon hacker préféré, un Allemand qui avait cracké le GSM dans les années 90, qui était aussi une personne pure, c’était un génie qui avait vraiment le cœur pur. Lui avait cette vision du savoir technologique, l’idée que la technologie doit être au service… non pas de l’humain. Mon père me le dit toujours : « Quand tu as un talent particulier dans la vie, que tu es très bon dans un domaine, si tu ne l’utilises pas pour rendre le monde meilleur en fait tu es un peu un pauvre type ». Malheureusement beaucoup de gens sont géniaux et qui font des trucs ! Et ce n’était pas le cas de Aaron, c’était vraiment quelqu’un d’incroyable.

Sky : Bernard, comment il a terminé ?

Bernard Benhamou : Malheureusement, et c’est pour ça que je dirais que c’est un héros foudroyé, écrasé, dans son trajet, qui s’est suicidé.

Sky : Qui a été poussé au suicide.

Bernard Benhamou : Voilà ! S’est-il fait suicider ?, on ne peut pas le dire ainsi, mais on peut dire simplement qu’il a été acculé, effectivement, à cette solution extrême alors même que sincèrement tous ceux qui ont eu l’occasion de l’approcher ! Un de mes amis le connaissait très bien, un certain Larry Lessig24.

Sky : Qui a failli être juge, mais qui a refusé.

Bernard Benhamou : Voilà. Tout à l’heure Tariq parlait des commons, ces communs comme on dit maintenant en français, c’est-à-dire ce patrimoine librement accessible sur internet, Swartz y a beaucoup participé. Lessig a créé les Creative Commons25 qui ont permis justement de desserrer un peu le carcan autour du copyright américain.

Sky : Lessig était un peu le parrain d’Aaron.

Bernard Benhamou : Absolument. Il a été véritablement écrasé par son décès. Sans trahir de secret, il y a deux périodes où je l’ai vu particulièrement déprimé : d’une part après le décès de Aaron Swartz et effectivement après l’élection de Trump.
Je précise qu'à l'origine Lessig était juriste, constitutionnaliste, il est devenu un des experts de la régulation des réseaux, c’est vraiment quelqu’un de remarquable. Il a enseigné à Harvard et à Stanford. Par la suite il en a eu assez, justement du fait de l’évolution de cette industrie [sur les questions de propriété intellectuelle, Note de l'intervenant].

Sky : Il a fait une marche.

Bernard Benhamou : Il a fait ça et surtout il est allé s’occuper de lutte contre la corruption aux États-Unis, ce qui est un vaste sujet y compris dans le domaine politique, c’est-à-dire dans le financement du système politique américain.
On voit là des trajets un peu parallèles entre la pureté technologique et la volonté justement humaniste d’un Swartz et effectivement le juriste qui devient un expert de l’Internet et qui, par la suite, a besoin d’aller exprimer un autre combat [politique].
Pour être tout à fait sincère je le regrette. Sur le domaine des technologies je crois qu’il aurait pu continuer à nous apporter beaucoup, mais il est vrai que la noblesse du combat qu’il a aujourd’hui contre la corruption est tout aussi importante.

Sky : Pour résumer trivialement son histoire, Aaron a essayé de mettre le savoir du MIT en ligne. Il trouvait que c’était un peu scandaleux de payer 50 000 dollars pour ça alors que la connaissance doit être libre. Il a installé de quoi copier, mettre en ligne et ça n’a pas plu. Ensuite il a été poursuivi. Il n’était poursuivi que pour ça. Il a été poursuivi, il a claqué les millions de dollars qu’il avait pour se défendre, il en a eu marre et voilà !

Tariq Krim : Je crois qu’il est tombé sur un procureur qui était assez dur, qui n’avait pas, en fait, estimé le risque de fragilité et puis surtout, il a eu le sentiment, j’en parle par le biais d’un autre ami au MIT qui m’a parlé, il avait le sentiment d’être un peu abandonné y compris par les gens qui l’ont soutenu. Mais, en même temps, je comprends ce par quoi il est passé. On a tous été un peu des pionniers et aujourd’hui ce qu’on voit tous les jours, quand on voit ce que l’Internet devient, ce que le discours sur l’Internet devient !
Dans les années 95/96, quand l’Internet arrive en France et que les politiques ne savent pas trop, eh bien ceux-là ont souvent une vision plus juste du débat. Quand on voit aujourd’hui les débats sur la loi Avia, la loi sur le renseignement, sur le pseudonymat, c’est-à-dire qu’on revient, en fait, sur les mêmes choses et ça a un côté un peu déprimant.
Je m’étais très impliqué sur la loi DAVDSI [Droit d'auteur et droits voisins dans la société de l'information], donc la loi avant, puisqu’on avait réussi à faire sauter la loi, elle a été revotée, je me suis retrouvé convoqué par Sarkozy, sa directrice Emmanuelle Mignon à l’époque, pour essayer de parler de MP3. Quand on voit ce qui s’est passé après avec l’Hadopi [Haute autorité pour la diffusion des œuvres et la protection des droits sur Internet], on a l’impression, en fait, que ce sont des sujets qui reviennent en permanence. Je vais très honnête, parfois je ne comprends pas pourquoi. Le débat sur la haine sur Internet, le débat sur le pseudonymat, enfin l’anonymat qui apparemment revient, ce sont des faux débats. Les vrais débats c’est comment on construit des infrastructures et des outils.
Cette pandémie, donc cette crise du covid, a montré qu’en France on a un problème d’infrastructures et d’outils. J’ai appris par un ami qu’apparemment le CNED [Centre national d'études à distance] utilise une techno américaine qui s’appelle Blackboard, il est probable que les gens ne savent pas que les données sont aux États-Unis.
Si on avait des infrastructures, des outils, et qu’on dise aux gens débrouillez-vous, organisez-vous. Ce qui est incroyable avec les hôpitaux c’est que pendant que le sommet était complètement paralysé – des réunions de crise, les « powerpoint-ites », etc., l’hôpital a géré les choses, il a géré au jour le jour. Si on avait des infrastructures c’est-à-dire du haut débit, des outils et de la formation suffisante qu’on puisse donner aux gens, on pourrait, en fait, laisser les gens se débrouiller et construire quelque chose de décentralisé. Cette idée pour moi est très importante. Au lieu de faire une startup nation, il faudrait qu’on fasse une infrastructure nation, qu’on investisse l’argent que l’on a à construire une infrastructure qui soit stable, qui soit sur le long terme. J’espère qu’on parlera un peu de slow Web après, mais pour moi le rôle de l’État c’est de ralentir le temps.

Sky : On va en parler maintenant. Alors ?

Tariq Krim : Si on part du parallèle que Google est le Mac Donald de la pensée, donc il faut autre chose, il faut du bio, il faut repartir sur quelque chose. On est, en fait, ce que l’on mange. Aujourd’hui, ce qu’on consomme numériquement, c’est assez peu digeste. C’est dépression, la dépression ce sont les teen-agers. Il y avait un article qui est sorti dans The Atlantic qui était terrifiant quand on voyait les gamins qui sont en permanence sur Instagram et désormais sur Tik Tok à se comparer à une vision, une fausse vision de leurs amis, cette idée qu’on est en permanence jugé. Il faut repenser les choses. Ce qui me plaît avec le mouvement du Slow Food qui est né en 1989 en Italie, contre l’arrivée de Mac Donald à Rome, c’est comment on cultive, donc comment on fait grandir les produits, comment on les cuisine, et surtout la convivialité de les manger ensemble. Je me rappelle ces dîners que j’adore quand on dîne avec des amis et on parle trois heures, quatre heures, le dîner dure toute la nuit. Cette convivialité, finalement, doit se traduire aussi dans le logiciel. C’est-à-dire que les données que l’on fait grandir il faut déjà les minimiser, la manière dont on fait les produit et la manière dont on les sert et l’expérience doit être différente.
Le slow Web ce sont quatre idées.
La première c’est le fait qu’il y ait une transparence. Le logiciel que l’on a aujourd’hui n’est pas transparent. Quand je prends Facebook et que je like une photo, j’ai l’impression que l’action que je fais c’est liker une photo et la personne dont j’ai liké la photo va recevoir une notification « vous avez été liké par Tariq ». La réalité c’est que derrière il y a plusieurs algorithmes, notamment le EdgeRank qui va faire : « Ah ! il like plus souvent telle personne, donc je vais changer l’organisation. Ah ! j’ai analysé la photo avec une IA, il y a un chien, je vais lui vendre des croquettes pour chien. Ah ! Tiens ! Il a envie d’aller en voyage je vais analyser tel chat ». En fait, il y a peut-être 30/40 choses qui vont se faire avec une simple action. Cela n’est pas visible par l’utilisateur. Le minimum ça serait que l’on dise « l’ensemble des choses que vous voyez a été choisi par un algorithme. Elles ne sont pas là par le biais du hasard ».
La deuxième chose c’est la non-manipulation, ce qu’on disait tout à l’heure c’est qu’avec le design, ce qu’on appelle les dark patterns, l’idée d’obliger les gens à faire certaines choses, c’est un vrai problème. C’est un problème éthique, c’est un problème qui est connu, c’est d’ailleurs une chose qu’utilise de plus en plus l’État. Quand j’avais signé « contre » au référendum, j’étais opposé évidemment à la vente d’Aéroports de Paris, je me suis rendu compte qu’il fallait écrire en majuscules et il fallait utiliser l’ordre exact de sa carte d’identité, mais ce n’était pas indiqué. Quand j’ai voulu me faire rembourser ma carte Navigo, je ne sais pas si quelqu’un a réussi à se faire rembourser sa carte Navigo, j’ai vu le système et je me suis dit « si on ne veut pas faire quelque chose en ligne, qu’est-ce qui se passe le jour où il n’y a plus de bureaux physiques pour faire les choses ? »
Ce qui m’énerve avec le discours qu’on entend, « il faut mettre tout le monde sur Internet », il y a des gens qui ne sont pas sur Internet parce qu’ils ne veulent pas. Feu ma maman avait des problèmes, envoyer un e-mail à l’administration c’est quelque chose qui la stresse. Elle a besoin de voir quelqu’un qui lui dit « c’est bon », il y a un tampon, c’est fait. Il y a plein de gens qui n’acceptent cette idée que virtuellement on discute avec une autorité et les outils dont on dispose n’ont pas ça.
La troisième chose c’est le mode incognito, ce dont on parlait tout à l’heure. Quand j’avais un iPod ou un baladeur MP3, il n’y avait pas un algorithme pour me dire tu vas écouter cette chanson. Si j’ai envie d’écouter une chanson débile sous la douche tous les jours, 50 fois, je n’ai pas envie que la plateforme le sache. On doit être capable de dire « on stoppe ».
et la quatrième chose, un truc qui est assez récent, eh bien c’est simple c’est le droit de terminer une relation, le droit de dire « je pars, c’est fini ». Un copain me disait qu’apparemment, quand on veut se désabonner de Sky, l’équivalent de Canal+ en Angleterre, il faut passer une heure au téléphone avec quelqu’un. Aujourd’hui on devrait dire « au revoir ».

Sky : Et rends-moi mes données.

Tariq Krim : Efface mes données et donne-moi mes données. Mais cet acte, cette action qui est assez simple, on a l’impression d’avoir perdu. Quand quelqu’un part on a l’impression d’avoir perdu. Il faut gagner, il faut prendre le maximum à l’utilisateur.
Ça c’est la quatrième chose et ces quatre choses ce sont des conseils de design, mais je me dis que les applications, par exemple des applications comme DuckDuckGo, ce qu’on fait aujourd’hui : j’ai une petite plateforme qui est plutôt un side project, qui s’appelle Polite26. Il n’y a plus de trackeurs, c’est la plateforme telle qu’on voudrait la voir : tu as accès tes données, tu fais ton truc, ça coûte 5 euros, ça pourrait être gratuit, mais ce n’est pas le modèle. Et si tu veux partir, tu cliques, on efface tes données. Ça devrait être le modèle standard, mais ça ne l’est pas parce qu’aujourd’hui on considère que le modèle de la monétisation, du behaviouring est plus rentable parce que ce modèle est un modèle qui permet de prendre très vite à une personne, alors que l’Internet est là pour for ever.

Sky : Bernard.

Bernard Benhamou : La-dessus, sur ça, on ne peut qu’être d’accord. Je ne vais pas revenir sur le débat sur l’apparente gratuité de l’Internet qui effectivement s’est faite au détriment des utilisateurs.

Sky : Si, on aimerait bien que tu y reviennes.

Bernard Benhamou : En gros, il y a eu une période où les gens se sont dit « est-ce qu’on peut installer ce qu’on appelle maintenant un paywall, c’est-à-dire faire payer les gens pour accéder à des contenus » et le choix instinctif de tout être normal en situation d’avoir à choisir c’est effectivement de ne pas payer. Le problème c’est qu’en ne payant pas on a laissé progressivement se créer ces mégas, ces gigas bases de données, de profilage et surtout donné lieu à un business [de la gestion des données personnelles via les data brokers, Note de l'intervenant] qui est totalement opaque. Les activités de ces data brokers sont évidemment contraires à la loi européenne, au Règlement sur la protection des données, mais on n’a pas voulu analyser comme tel. Ainsi, au lendemain de l’affaire Cambridge Analytica, Mark Zuckerberg lui-même, interrogé par la très remarquable Kathy Castor, la représentante de la Floride – je vous invite tous à regarder cette vidéo, c’est un moment d’anthologie dans la maîtrise politique du sujet comme rarement on a pu le voir – eh bien Mark Zuckerberg a été obligé de dire « oui, nous allons cesser toute forme de relation avec les data brokers » parce qu’effectivement le risque de dissémination des données était devenu beaucoup trop grand.

Sky : Il transpirait ce jour-là, il était rouge.

Bernard Benhamou : Il transpirait. On voyait surtout que c’était une des pires journées de sa vie et cela se sentait. C’était une audition non pas au Sénat mais à la Chambre des représentants. Remarquable !

Tariq Krim : Alexa a pris quand même 5 ou 7 % après.

Bernard Benhamou : Voilà ! Le problème c’est que tant qu’on ne s’attaque pas au cœur, c’est-à-dire au modèle économique de ces sociétés, tant que nous restons inertes en nous lamentant sur notre virginité perdue, il ne se passe rien ! Il faut dire à un moment donné, comme l’ont dit des parlementaires dans de nombreux pays, pas uniquement en Europe, il y a un moment où ce type de comportement industriel devient [et doit être déclaré, Note de l'intervenant] toxique.
On parlait tout à l’heure des contenus radicaux et de Zeynep Tufekci, la sociologue qui parlait de la radicalisation algorithmique. Google n’est évidemment pas complice du djihadisme et des contenus les plus extrêmes qui peuvent, parfois à son insu, être présents sur sa plateforme, mais il y a une forme de convergence d’intérêts toxiques. Ce que démontre justement l’ouvrage de Tufekci c’est qu’en gros, plus vous restez longtemps, plus ça rapporte d’argent par définition, à une plateforme qui vit sur la publicité. Donc s’ils remarquent que des contenus extrêmes font que les gens restent « collés », deviennent addicts, par définition, leur algorithme aura tendance à privilégier ces contenus [dans les recommandations suivantes, Note de l'intervenant].
Tout à l’heure Tariq parlait d’Eric Schmidt l’ancien patron de Google qui écrivait il y a quelques années, en gros, que les sociétés comme la sienne avaient vocation à remplacer les États, en disant que les États sont devenus lourds, lents, incompétents, « globalement nous aurons vocation à les remplacer ». Les gens au sein des appareils d’État qui entendaient ça à l’époque souriaient. Aujourd’hui ils ne sourient plus !

Tariq Krim : Maintenant ils sont chez Google ou Facebook. L’un des cocréateurs du Patriot Act est maintenant chez Facebook !

Bernard Benhamou : Par définition, on voit bien qu’il n’est plus possible, comme par le passé, d’envisager de façon neutre le paysage industriel dans ces domaines. Si on ne comprend pas que ces sociétés sont devenues trop puissantes pour ne pas répondre à des impératifs politiques, c’est-à-dire en clair, je dirais à des impératifs démocratiques.
Regardez ce qui s’est passé à Toronto. Toronto c’est un bon exemple. Vous avez une filiale de Google à Toronto, qui s’appelait Sidewalk Labs, qui a voulu mettre en place la ville intelligente dans un des quartiers de Toronto. Ce n’est pas compliqué, ça ressemblait exactement au crédit social chinois. Quand vous regardez dans le détail, il s'agissait de systèmes de prime aux comportements vertueux et, au contraire, de sanctions pour des comportements qui ne seraient pas vertueux au sens où Google l’entendrait. Au bout d’un moment les citoyens de Toronto ont dit « nous n’avons pas voté pour le patron de Google, ce n’est pas à lui de diriger nos vies ».
Ce qui était vrai pour ce quartier de Toronto doit être vrai, je dirais au minimum pour l’Union européenne voire plus, c’est-à-dire que nous n’avons pas à laisser les sociétés qui ne répondent pas à l’intérêt général se prétendre garantes de ce même intérêt général Vous vous souvenez du slogan de Google don't be evil, « ne faites pas de mal ». À l’heure qu’il est on peut se poser sérieusement la question de savoir tout le mal qu’ont pu faire ces sociétés, Facebook la première, je dirais à quasi égalité avec Google. On ne peut pas laisser ça et je pense que là où nous nous rejoignons avec nos angles de vue différents sur la question, avec nos expériences de vie, c’est qu’à un moment donné ces questions deviennent hautement politiques.
Je citais tout à l’heure Larry Lessig qui a créé cette phrase devenue célèbre Code is Law.

Sky : Qui est un monstre, d’ailleurs.

Bernard Benhamou : C’est une personne que j’ai eu grand plaisir à faire connaître en France et en Europe. Ce n’est pas compliqué. La phrase suivante, lors d’un débat que l’on avait eu avec lui à Science Po à l’époque, c’était Architecture is Politics c’est-à-dire que l’architecture du code, un peu comme l’avait dit Eric Raymond dans son ouvrage La Cathédrale et le Bazar, que le code devient porteur de valeurs politiques.

Sky : Si on n’audite pas le code on est coincé.

Bernard Benhamou : Exactement. Ça c’est le propos d’un autre grand spécialiste de ces questions, Frank Pasquale, qui a écrit The Black Box Society, « La société boîte noire » : il nous fait auditer le code, il ne faut pas laisser les gens qui ont une vision purement économique. Tout à l’heure Tariq parlait des deux types d’algorithmes qui sont l’un censé augmenter l’interaction et l’autre censé la contrôler, on voit bien que la chose est totalement biaisée et que la main gauche qui va récupérer de la puissance marketing ne sera jamais handicapée par la main droite. C’est ce que montre Zuckerberg tous les jours dans son incapacité à réformer, je dirais, ne serait-ce que les propos de haine sur la plateforme, mais on pourrait le dire bien au-delà sur la publicité politique. Ce qu’a fait Jack Dorsey sur Twitter, Facebook s’y oppose avec la dernière des énergies, sauf à y être contraint. On a vu que même Unilever, même Coca-Cola, même les grandes marques américaines qui se sont coalisées, qui ont envisagé un boycott de la plateforme, n’arrivent pas à faire plier Facebook. Je précise, prenez vos carnets et vos crayons, je crois que c’est le 27 juillet qu’il y a la première audition de tous les patrons des GAFA par rapport à l’antitrust américain, on va effectivement voir où la chose mène. On se rend compte que même aux États-Unis la puissance cumulée, la puissance politique et économique cumulées de ces plateformes devient intolérable, ce qui avait mené en d’autres temps la fragmentation de sociétés comme AT&T à l’époque ou historiquement Exxon avec la Standard Oil.

Sky : Google a pris les devants avec Alphabet. Tariq.

Tariq Krim : J’avais deux petits points. Le premier c’est quand on dit qu’il faut réguler les algorithmes ou il faut les auditer, encore faut-il les comprendre !

Bernard Benhamou : Et ce n’est pas du tout évident !

Tariq Krim : J’ai une théorie sur ce que j’appelle les suprémacistes numériques, c’est une vision politique qui se traduit maintenant par ce que l’on appelle le néo-féodalisme, c’est la vision un peu à la mode dans la Silicon Valley, c’est de dire qu’on revient aux temps des seigneurs, le seigneur est tout puissant, il lève la dîme, mais il protège aussi, évidemment cela face à l’État-nation.
On revient au tout départ, à ce combat entre les gens qui voulaient la vision humaniste, augmenter les compétences humaines et les remplacer. Pour ces gens-là le monde est une équation mathématique qu’il faut optimiser. Quand on optimise la démocratie à la fin on arrive à un modèle dont on parlait tout à l’heure, soit ce qui a été fait à Toronto, soit ce qui se fait quotidiennement en Chine. Ça c’est un premier point.
Sur la question de casser les Big Techs, moi j’ai une vision un peu différente. Aujourd’hui, un, déjà je pense que ça ne va pas se faire parce que les États-Unis veulent conserver des puissances très importantes, mais surtout je crois que l’ensemble de ces sociétés se sont préparées à être cassées. Je donne un exemple tout bête : si demain Amazon Web Services est séparé d’Amazon, ça devient instantanément la dixième dans le top 10 des boîtes les plus profitables. Ce qui s’est passé pendant longtemps c’est que les profits qui étaient faits par Amazon Web Services – on l’oublie, mais Amazon Web Services est né du fait qu’Amazon avait des pics de connexion énormes pendant des moments très précis, Black Friday et autres, et que le reste du temps ils avaient de la puissance massive, donc ils ont décidé de la mettre à disposition des autres, notamment leur concurrent Netflix entre autres – donc pendant longtemps les profits d’Amazon, puisque c’est un web services, les gens payent pour transférer leur informatique sur le cloud donc c’est extrêmement profitable, servait à financer une chose chez Amazon : l’oxygène du e-commerce que sont les frais de livraison. On s’est retrouvé plusieurs fois avec des Black Fridays, les fameux jours où on solde, donc le jour de l’année où vous vendez le plus de produits, avec 90 % des frais de livraison qui sont offerts. Si Amazon les offre, tous les autres sont obligés de le faire et tous les autres tirent la langue. Ce qui passe maintenant avec Amazon c’est qu’ils ont une nouvelle entité qui fait de la publicité, qui est désormais numéro 3 derrière Facebook et Google aux États-Unis, qui a maintenant suffisamment d’argent pour alimenter cette stratégie d’Amazon, donc si on sépare Amazon Web Services elle va devenir une société très profitable.
Pour Facebook c’est un peu plus difficile, mais ils ont déjà commencé à réfléchir en interne à cette question de séparer les entités.
Pour Google, ce serait évident de séparer Android du moteur de recherche. Alphabet, d’une certaine manière, a été la façon de préparer ça.
La société qui est plutôt mal en point face à ça c’est Apple, c’est-à-dire que dans cinq ans, quand ils auront une entité de services qui gagnera suffisamment d’argent pour séparer le hardware, parce que Apple est avant tout une société de hardware.

Sky : Était.

Bernard Benhamou : Plus maintenant.

Tariq Krim : Était avant tout, ils commencent à l’être, d’ailleurs maintenant ils font des téléphones.

Bernard Benhamou : Les services constituent une part importante de leurs revenus aujourd'hui.

Tariq Krim : Ce qui est intéressant c’est qu’aujourd’hui ils font des téléphones pas chers, entrée de gamme, parce qu’ils vont passer dans le service. Le problème, ça c’est une chose sur laquelle la Commission européenne aurait dû travailler depuis des années, quand on vend un produit sur l’App Store, quand vous êtes une boîte et que vous faites 30 % de marge ce n’est pas mal, mais dans le monde d’Apple les 30 % vont à Apple et vous vous débrouillez avec le reste. Et on a laissé ça pendant dix ans, on a fêté les dix ans de l’App Store. Pareil avec Google. On a donc laissé quasiment un hold-up avec des bandits de grand chemin qui ont ponctionné cet argent. Apple est la société qui, à mon avis, dans cette idée où on séparerait, n’est pas encore prête ; dans cinq ans elle le sera, mais aujourd’hui elle ne l’est pas. Moi je ne crois pas que quiconque, aux États-Unis, osera toucher à ces sociétés. C’est dommage parce que le vrai sujet c’est qu’on devrait le faire non pas parce qu’on est anticapitalistes, mais parce qu’on est justement capitalistes et qu’il faut laisser de nouvelles sociétés émerger. Aujourd’hui c’est impossible, vous ne pouvez rien faire.

Bernard Benhamou : On pensait la même chose justement par rapport aux télécoms, et on avait un monopole sur les communications longue distance qui était tel qu’effectivement, à un moment donné, la question s’est posée. Je rappelle que les lois antitrust portent le nom d’antitrust aux États-Unis, Sherman Act pour les plus juristes d’entre vous, antitrust parce que la Standard Oil n’était pas une société, c’était un trust. En gros, ce que j’essaie de dire, c’est qu’aujourd’hui faire des lois antitrust spécifiques pour Google, pour Facebook est une chose possible. Est-ce qu’on le fera à horizon prévisible court ? Non. Il faut être très clair aujourd’hui la capacité d’étouffement de ces sociétés – tout à l’heure il était question d’oxygène par rapport à tel ou tel secteur d’activité – par rapport à leur écosystème est devenue telle que tout l’écosystème industriel se rend compte qu’il doit payer. Tout à l’heure on parlait d’une dîme, d’une taxe. En gros, pour exister aujourd’hui tant commercialement qu’en termes marketing, on doit payer la taxe à des grands acteurs qui, effectivement, vous permettent d’exister. [Ces sociétés peuvent se comporter en prédateur par rapport à la quasi-totalité des acteurs économiques, Note de l'intervenant].
Demandez à la presse, nous sommes tous consternés [de voir à quelle point elle est devenue dépendante de ces plateformes, Note de l'intervenant].

Sky : À la quoi ?

Bernard Benhamou : La presse, en particulier la presse locale qui a connu une décrue dramatique dans tous les pays occidentaux. À un moment donné, tous les acteurs par exemple de la presse magazine en France vous disent : « Si nous devions rentrer en conflit avec Google sur Google News ou avec Facebook, c’est 40 % de notre chiffre d’affaires qui s’en va, de notre trafic et de notre capacité de valorisation. » Donc, par définition, c’est évident que la chose est dangereuse, cela crée un rapport de féodalité. Rappelons pourquoi la loi antitrust a été créée, c’était pour éviter de se plier devant de nouveaux féodaux. Ceux qui l’avaient créée disaient : « Nous avons effectivement réussi à nous à sortir de l’emprise des griffes d’un roi ce n’est pas pour tomber aujourd’hui sous l’emprise de quelques barons industriels ». On est, je dirais, au début de la crise globale par rapport à ça. Est-ce qu’elle aboutira ? Si demain Elisabeth Warren devait être patronne du Département du Commerce ou, pire encore pour ces sociétés, du Département de la Justice, tous les paris seraient ouverts. Je dirais que l’hyper-concentration à laquelle on a assisté devient toxique globalement pour l’économie et y compris pour l’économie américaine.
Certes, je suis d’accord avec Tariq, le gouvernement américain souhaite conserver ses champions, mais est-ce que tous les autres accepteront durablement la taxe des 30 % pour les applications ou, effectivement, la taxe publicitaire sur l’ensemble de leurs activités ? Ça c’est beaucoup moins évident, y compris même à l’intérieur des États-Unis.

Sky : Tariq, tu veux rajouter juste un mot.

Tariq Krim : Juste un mot.
Je pense qu’on a un problème de timing. Tout ça était vrai avant la crise du covid et on se trouve dans une situation qui est un peu compliquée. Le covid a accéléré la transition numérique de cinq ans, dix ans peut-être, il y a des choses qu’on ne faisait pas avant, qu’on fait. Et Biden, s’il est élu, aura un autre problème, c’est qu’il va avoir 40 millions de chômeurs, il est dans un État qui est en déliquescence totale, donc il aura d’autres problèmes et je pense que pour les quatre ans, voire possiblement les huit ans qui viennent, ces gens n’auront pas la capacité de faire tout ce qui doit être fait et qui, je pense, aurait dû être fait. Ça pose la question de ce que l’Europe peut faire, ce que l’Europe veut faire.

Bernard Benhamou : Doit faire.

Tariq Krim : Ce que l’Europe devrait faire, doit faire aussi, et là c’est vrai que là on a un problème de lisibilité parce que ces questions ne sont pas…

Bernard Benhamou : Sans être particulièrement sévère par rapport à nos voisins Britanniques, le départ des Britanniques de l’Union, s’il devait se réaliser.

Sky : Double peine.

Bernard Benhamou : Leur départ serait peut-être une chance sur les questions de régulation vis-à-vis des GAFAM. On parlait tout à l’heure de Small Business Act en Europe, ceux qui ont été particulièrement hostiles par rapport à cette notion ce sont justement les Britanniques. Effectivement sur la régulation du marché, les actions antitrust, je pense qu’on pourrait aller plus vite désormais. Je crois qu’il y a une opportunité par rapport à cela qui méritera d’être jouée. En tant qu'ancien négociateur européen qui a eu l’occasion de beaucoup œuvrer et de voir les difficultés de se coordonner à 27 à l’époque, sincèrement je crois qu’on est face à un changement et l’Europe se rend compte que la naïveté qui a été la sienne par rapport aux deux blocs, chinois et américain, devient hautement toxique [pour sa survie même, Note de l'intervenant].

Sky : Est-ce que c’était de la naïveté ou non, parce que ça me partait quand même un peu…

Bernard Benhamou : Qu’il y a eu des gens…

Sky : Des lobbyistes… Avant, juste avant.

Bernard Benhamou : Je me souviens des propos de Michel Rocard, il y a quelques années, qui disait : « Je n’ai vu un lobbying aussi violent que sur les questions de data à Bruxelles ». Donc qu’il y ait, sur les sujets que nous évoquons, des tentations d’influence, c’est évident. Mais parmi ceux qui ne sont pas manipulés, qu’il y ait effectivement une forme de passivité, une forme de résignation sur le mode « de toute manière on ne peut pas faire sans eux ». Quelqu’un a d’ailleurs fait récemment, je crois que c’est dans le Journal du Net, une typologie des acteurs du numérique qui étaient pour ou contre la souveraineté numérique et on voyait les opportunistes, les militants, j’étais bien sûr du côté militant ; on voyait effectivement les types de discours que ça génère. Il y a cinq ans, quand nous avons créé l’Institut de la souveraineté numérique, on nous disait « mais qu’est-ce que c’est la souveraineté numérique ? » C’était un think tank privé – je sortais de mes fonctions de délégué interministériel, ce n’était pas du tout une structure publique, on s’est regroupé à quelques-uns, Tariq nous a rejoints dans notre conseil scientifique – pour réfléchir à ces questions, sur les questions de relations internationales par rapport au numérique et par rapport en particulier au numérique européen. Il se trouve qu’aujourd’hui tout le monde parle de souveraineté numérique, pas simplement Thinkerview, tout le monde parle de souveraineté numérique.

Sky : Nous, ça fait longtemps qu’on en parle. Depuis des années !

Bernard Benhamou : Je sais, je sais bien ! Je sais que c’est un sujet que vous avez abordé avec de nombreuses personnalités.
Aujourd’hui la question c’est comment se détermine-t-on par rapport à ce sujet. Si on se détermine mollement c’est que quelque part on était contre. Aujourd’hui, seules des solutions non pas radicales, mais je dirais politiquement fortes doivent être envisagées.

Sky : Solutions politiques dans la même phrase.

Bernard Benhamou : Malheureusement, il y a des gens encore pour y croire.

Sky : Il faut rajouter courage et là tu as le tiercé gagnant : courage, politique, solutions !

Bernard Benhamou : Je sens un côté désabusé !

Sky : Non réaliste, pragmatique.

Bernard Benhamou : Pragmatique. Tout à l’heure Tariq parlait de la crise covid. La crise covid a été un accélérateur sur tous les plans, peut être même sera-t-elle l’accélérateur du déclin, voire de l’expulsion du champ politique d’un certain Donald Trump, si on en croit les sondages, ce que nous verrons encore dans quelque temps.

Sky : Ou pas !

Bernard Benhamou : À voir. En tout cas, je dirais que ce que l’on voit politiquement, globalement l’inaction sera considérée comme une faute politique dans ce domaine dans pas très longtemps, là où auparavant elle était considérée comme anodine. J’ai connu des ministres à qui on disait « ne vous affichez surtout pas sur les technologies, vous allez y perdre en crédibilité », je ne citerai pas le nom des ministres, mais leur cabinet leur disait ça.

Sky : Le nom du chef de cabinet ?

Bernard Benhamou : Je ne le dirai pas ! Aujourd’hui il est question de quoi ? De taxe GAFA avec toutes les difficultés qu’il y aura à la mettre en œuvre évidemment, mais tout d’un coup on reparle de champions européens. Le récent discours de politique générale c’était 40 milliards pour l’industrie, on verra ce qu’il en sera fait.

Sky : Comment s’appelait le député qui avait fait un rapport sur les serveurs chinois, que c’était très grave, mais il ne parlait pas du tout des serveurs américains. Vous ne vous rappelez pas de ce mec-là ? Passons.
Question internet : j’ai peut-être loupé des morceaux mais en parlant d’infrastructure quid de OVH ? C’est français non ?

Bernard Benhamou : Oui.

Sky : Ils sont costauds ?

Bernard Benhamou : Oui. Je vais répondre là-dessus et je pense que Tariq pourrait conclure. Lorsque notre secrétaire d’État chargé du Numérique disait devant la représentation nationale.

Sky : Mounir Majhoubi ? Je n’ai pas compris.

Bernard Benhamou : Cédric O, oui il y a quelques semaines, disait : « Nous avons construit le Health Data Hub, il n’y avait pas de solution européenne, voire française, pour le faire. »

Sky : Et je veux travailler chez Microsoft le mois prochain !

Bernard Benhamou : À chacun de conclure !
Fondamentalement d’abord un, quand on voit un projet d’une importance stratégique telle et que l’on se dit « on ne peut le confier qu’à un Américain », comme le disait un certain président de la République française il y a quelques années, ma conclusion aurait été qu'il est urgent d’attendre. Était-il nécessaire de commencer [de risquer une fuite massive de ces données aux Etats-Unis, Note de l'intervenant] ? Je précise que c’était bien avant le covid pour ceux qui se poseraient la question, on parle maintenant du Health Data Hub, en période covid, mais il a été décidé il y a plus d’un an. Était-il prudent d’établir la maquette, le POC comme on dit dans ces domaines, le proof of concept, avec Microsoft au point que Microsoft, bien sûr, rajoute des briques de fonctionnalité qui font qu’au final ils sont quasiment les seuls à pouvoir répondre ? La réponse est non.
Dans une tribune sur ce sujet au Point, j’ai parlé d'une forme de paresse intellectuelle. Pour avoir dirigé des projets d’administration centrale, par définition on pouvait faire autrement. Les responsables de ce projet ont été au plus rapide et malheureusement sans se rendre compte des effets de bord, des risques que ça faisait courir aux données des Français et en particulier à leurs données les plus sensibles et stratégiques que sont les données de santé.

Sky : Là je vais prendre le point de vue de Gilles Babinet : il y a les données opt-in et il y a les données opt-out . Tariq, pourquoi tu te marres ?

Tariq Krim : J’avais fait un rapport qui a servi de cale pour armoire à l’époque de Fleur Pellerin, justement sur ces questions, et j’avais une réponse assez simple. Dès qu’on met les gens qui savent de quoi ils parlent, des gens qui sont techniques, dans les conversations, soudain les choses se passent mieux. Je me rappellerai toujours un de mes anciens associés qui avait monté une Web Agency, un de ses commerciaux avait vendu des pages web rondes. Et il a dû lui expliquer que ce n’était pas possible. En fait on a un vrai problème c’est qu’on a des talents exceptionnels.

Sky : Et on a beaucoup de culture de fumée.

Tariq Krim : Vous parliez d’OVH. OVH ils sont assez imbattables pour la machine nue, il faut tout faire soi-même ; il faut l’installer, mettre l’OS, les plateformes. On a des gens qu’on appelle des DevOps, des administrateurs systèmes, des gens dont le métier c’est de préparer, de déployer, de s’organiser. Dans une ancienne vie j’avais travaillé chez Infonie pour faire de l’Internet, j’avais un jeune Lyonnais – enfin jeune, il était un plus âgé que moi, il était quand même jeune à l’époque – maintenant c’est lui qui déploie pour tout Google, il s’appelle Éric Dumazet, un type exceptionnel qui patchait Linux en assembleur. Vraiment un type ! Des gens comme lui il n’y en pas beaucoup, mais des gens de très bon niveau, des DevOps, il y en a plein. Ce sont des gens capables, vous leur dites on va acheter, on va mettre 50 machines. Ce qui est fascinant c’est qu’une partie des outils qu’on utilise dans le Health Data Hub, mais aussi dans l’intelligence artificielle, notamment des technos comme Scikit-learn ou Jupyter Notebooks ont été développés en France. Le rapport de Cédric Villani sur l’IA, qui est fait avec le directeur de thèse, ne mentionne même pas les technos.
Après il y a un problème en ce moment avec le logiciel libre et les grandes plateformes parce que les grandes plateformes utilisent des logiciels libres et ne commitent pas les sources parce que maintenant, en fait, elles ne font pas de distribution, mais on pourrait reprendre. D’ailleurs, suite à l’histoire de Cédric O qui m’avait choqué : c’est comme si un ministre de l’Agriculture arrive et dit « le bœuf argentin c’est quand même meilleur que le bœuf français ».

Bernard Benhamou : On imagine qu'il ne resterait pas très longtemps ministre de l'agriculture !

Tariq Krim : Voilà ! Donc ça m’avait choqué. Ce qui est fascinant dans cette histoire, j’ai discuté en toute transparence avec Octave Klaba, le fondateur de d’OVH, parce que je ne comprenais pas. Il m’a dit : « Nous, on n’a jamais eu de véritable cahier des charges ». En tout cas ce que je sais des ingénieurs français que j’ai vus dans toutes les boîtes, je pense à OVH, mais il y en a plein d’autres, Outscale, quand on leur dit « voilà ce qu’on voudrait avoir », eh bien on va le construire, on construit. Quand on développe une boîte, puisque là on a un peu joué à la startup, on invente quelque chose de nouveau. C’est vrai que la startup nation a plutôt eu comme directive de copier les concepts américains et de les franciser comme on le faisait à l’époque avec les gens de la chanson ; la chanson française c’était la version américaine du rock et de Elvis Presley, on a fait un peu la même chose avec les startups. Mais on construit et on dit quelle va être l’architecture, quels sont les outils qu’on va utiliser et pour ça il faut amener dans la conversation des gens qui, en général, dans les administrations, sont au troisième sous-sol, des gens qu’on méprise.

Sky : Qu’on sous-paye.

Tariq Krim : Qu’on sous-paye. Ce qui m’a toujours fasciné c’est que les gens sont bons !

Sky : Ceux qui restent !

Tariq Krim : L’ancien directeur système du ministère de l’Intérieur ou de Bercy, je crois qu’il est allé après à General Motors, un type brillantissime, il était en plus respecté. Il y a des choses qui ont été faites à la Gendarmerie nationale avec le logiciel libre end to end, donc les gens sont là. Comment se fait-il que ces gens ne sont jamais dans les conversations ?

Sky : On a tous la réponse autour de cette table. On le sait. Dites-le ! Bernard, je te vois sourire avec un petit sourire en coin. On le sait tous !

Bernard Benhamou : On va le dire autrement. Pour avoir enseigné dans certaines grandes écoles dans ces domaines, je vous raconte une anecdote. J’ai créé les premiers enseignements à l’ENA sur Internet et administration électronique, 1998.

Sky : C’est loupé quand même !

Bernard Benhamou : C’était un one-shot. Ce n’est pas compliqué. À l’époque je leur disais « bientôt vous serez jugés, notés, sur ce que vous faites sur Internet ». Éclats de rire dans la salle ! Maintenant personne ne rirait !
Pour reprendre le propos, il est évident que les technologies ont pendant très longtemps, pour des littéraires, des juristes, que je connais bien, j’en ai beaucoup fréquenté, les technologies c’était du domaine du « contingent », c’était des choses secondaires. La décision politique c’était autre chose que de s’occuper de machines, de technologies, etc. Eh bien non ! Quand on voit des juristes d’un tel talent, puisque tout à l’heure on parlait de Lessig, devenir à ce point compétent alors que, je le précise, il n’a, à aucun moment, étudié les technologies de façon universitaire, c’est vraiment un autodidacte complet des technologies, c’était un juriste constitutionnaliste et un philosophe, il a aussi une formation de philosophe. On a eu des gens qui ont été curieux et qui n’ont pas méprisé ces sujets.
Notre problème c’est que trop souvent on a dit que d’un côté il y a l’ingénieur qui va s’occuper de faire en sorte que le courant fonctionne dans la maison et, de l’autre côté, il y a le politique qui va s’occuper des textes juridiques, des textes législatifs et effectivement de la régulation de tout ça. Je dirais, alors même qu’on avait parmi les meilleurs ingénieurs du monde – tout à l’heure on parlait des grandes époques des grandes décisions de politique industrielle française –, on avait des ingénieurs de talent avec des politiques qui les comprenaient et qui savaient leur donner les moyens qu’il fallait. Je rappellerai que les projets atomiques et autres sont nés avant même le général De Gaulle, déjà à la quatrième République, avant ce que l’on a pensé être uniquement la période clef ou charnière, il y avait déjà une volonté dans ces domaines. Aujourd’hui, malgré toutes les suspicions qu’on peut avoir, je dirais qu’il y a une forme de vision résignée de ce futur en disant « de toute manière on a loupé la marche » et je l’ai souvent entendu à Bercy, des gens à Bercy me dire « sur Internet c’est trop tard ». Je dirais que les scandales à répétition auxquels on a assisté, Snowden, Cambridge Analytica et consorts, nous donnent, entre guillemets, « une possibilité » de revenir dans le jeu. Soit nous saisissons cette possibilité, soit nous laissons la chose dériver comme elle a dérivé ces 15 ou 20 dernières années.

Sky : Tomber dans le misérabilisme de l’impuissance. Question d’Internet : doit-on se méfier de la 5G et de l’arrivée massive de Huawei dans le monde, notamment en Europe ?

Tariq Krim : Sur la 5G, on pourrait dire beaucoup de choses. Je trouve que l’Arcep [Autorité de régulation des communications électroniques, des postes et de la distribution de la presse] a été assez mauvaise sur la gestion de la partie onde et 5G. Je ne vais pas parler de ça, mais il y a plusieurs choses sur la 5G.
La première c’est qu’on change un peu de paradigme. Jusqu’à maintenant on avait des technos qui étaient du haut débit et pour beaucoup de gens la 5G c’est encore plus de débit. D’ailleurs, quand on écoute le nouveau maire de Grenoble expliquer que la 5G, ça sert, si j’ai bien compris à télécharger…

Sky : À regarder du porno dans l’ascenseur.

Tariq Krim : Dans l’ascenseur. Il a dû remarquer que la 3G ou la 4G ne marchaient pas très bien dans les ascenseurs.

Sky : Il y a moins de caméras dans les ascenseurs !

Tariq Krim : D’une certaine manière je comprends ce qu’il dit et si j’ai juste un instant pour l’expliquer, je pense qu’une grande partie des gens a l’impression que le monde va trop vite. On est dans une forme de barrière d’abstraction, c’est-à-dire que le monde est devenu abstrait, on ne comprend plus rien.
J’ai pensé pendant longtemps que l’IA – IA c’est le mot clef pour dire licenciement, on va mettre de l’IA dans une société, ça veut dire qu’on va remplacer les gens – allait être le mauvais élève, on allait être contre l’IA. Mais, à priori, le docteur Laurent Alexandre a fait son travail et des gens continuent à penser que c’est une force de bien et finalement c’est la 5G qui a pris cette idée que le monde va trop vite.
Derrière la 5G il y a un problème c’est qu’on a des technos, par exemple une boîte comme Amarisoft qui a été faite par Fabrice Bellard – quand j’ai fait la mission, avec Fleur Pellerin, je me suis dit il faut que je donne au moins quelques noms et je me suis dit je vais en donner une centaine, après je me suis fait un peu engueuler parce que « tu aurais pu mettre untel », mais j’ai mis 100 personnes qui ont participé à des choses vraiment importantes – et ce type, Bellard, si on peut regarder de la vidéo dans Chrome c’est grâce à lui, il a fait QEMU, et il est en train de révolutionner : en fait on peut prendre un PC à 400 euros, on le transforme en borne 4G, 5G, donc ça ne coûte rien. Lui a carrément outsmarté Huawei.
Une des raisons pour lesquelles on achète Huawei c’est que ça ne coûte pas cher. Il y a aussi le fait qu’ils ont été rapides, ils ont commencé rapidement à la déployer en Chine donc ça a été un peu plus vite et nous on a un sujet c’est qu’on n’est même pas sûrs que les opérateurs ont l’argent parce qu’on ne sait même pas combien vont coûter les licences, donc on est vraiment en retard. Il y a évidemment un problème de souveraineté puisque là on est carrément dans le cœur de réseaux des boîtes noires. On a déjà aussi des boîtes noires, on est censé depuis la loi sur le renseignement avoir des boîtes noires, mais elles sont censées être de fabrication française si j’ai bien compris. Là on passe sur quelque chose de plus inquiétant.

Sky : On aura des boîtes noires pilotées de la Chine.

Tariq Krim : À une époque où la technologie était importante, notamment chez France Télécom — j’ai passé ma jeunesse à me ficher d’eux parce qu’on faisait du fracking, on s’amusait à détourner les lignes de téléphone —, France Télécom était obsédée par la qualité de service. À une époque on n’était pas forcément d’accord avec l’architecture très centralisatrice du Minitel, numériste, mais c’était la qualité de service, c’est-à-dire que le truc marchait.
Maintenant on est passé à un système où on est au milieu du marais, on a deux barres, ça ne marche pas. Quand vous êtes au Japon vous êtes dans un club, vous êtes à moins cinq et vous avez cinq barres ; c’est pareil en Allemagne. Donc on a déjà perdu cette qualité de service.
Ce qui m’inquiète c’est que les réseaux c’est devenu un peu Frankenstein : on met un peu de Huawei, on met un peu d’Ericsson, on ne sait plus du tout comment construire les réseaux, parce que, encore une fois, dans les grands groupes – je mets de côté Xavier Niel qui connaît bien le sujet, donc je le mets à part – on n’a plus véritablement encore de techniciens dans les comex, maintenant vous n’avez que des marketeurs ou des politiciens professionnels, donc quand il s’agit de réfléchir à comment on va architecturer et ça il faut le faire dix ans avant d’implémenter ! C’est vrai aussi chez Renault. BMW a un système de voiture automatique, Renault va passer chez Google ! Ça veut dire que dix ans avant il y a des gens qui auraient dû réfléchir à ça, qui auraient dû aller voir l’écosystème, voir ce qu’on peut faire. Il ne faut pas oublier que Renault et Peugeot ont inventé la CAO [Conception assistée par ordinateur], en fait la 3D telle qu’elle existe ; les courbes de Bézier, toute la base de la CAO a été inventée chez Peugeot et aussi chez Renault. Je parle des années 60, on avait de gens qui étaient visionnaires, et maintenant on a des gens qui n’ont plus… On a effectivement ce problème.
Juste pour terminer sur la 5G, le problème de la 5G c’est qu’on pourrait faire des technos beaucoup moins chères et on pourrait aussi régler le problème des zones blanches en l’installant un peu partout, mais pour ça il faut revenir sur un point important qui est la décentralisation. Si on laissait les gens reprendre le contrôle du réseau on aurait du réseau partout. Le fait qu’on laisse maintenant un petit nombre d’opérateurs qui ont de moins d’argent, qui savent de moins en moins comment ça fonctionne, je mets encore de côté Xavier Niel, pose un problème.
En France on a une situation un peu unique, c’est-à-dire que partout il y aura des expérimentations 5G et en France, pour l’instant on est très en retard.

Sky : Bernard, ça mesh ?

Bernard Benhamou : Qu’il y ait un risque par rapport à Huawei, sans rentrer dans des scénarios conspirationnistes, comme on dit, c’est évident.
De l’autre côté, je rappellerai la déclaration d’une certain William Barr, le ministre de la Justice de Trump, qui a dit : « Nous ne faisons pas le poids par rapport à ces technologies 5G, nous avons vocation à prendre des participations majoritaires dans les deux sociétés européennes importantes sur le sujet c’est-à-dire Nokia et Ericsson ». En gros, nous apparaissons non seulement comme le marché mais comme la proie que l’on vient dépecer. Savoir que d’un côté on a le risque chinois et que, de l’autre côté, notre allié historique ne nous voit que comme une proie qu’il doit dépecer !

Sky : Attends, l’allié historique ? Je n’ai pas compris. Les débouchés de marché historique, c’est ça ?

Bernard Benhamou : Peut-être. Peut-être aussi des jeunes gens qui meurent sur les plages normandes.

Sky : 300 000, c’est ça ?

Bernard Benhamou : Je ne saurais dire ! Obama avait eu l’occasion de dire « on est venu deux fois face à des périls imminents pour vous Français et Européens » et quelqu’un avait répondu « oui, mais on vous avait aidé avec un certain La Fayette à acquérir votre liberté face au roi d’Angleterre ».

Sky : Ils l’oublient souvent. Si on n’avait pas été là, ils seraient encore colonie anglaise.

Bernard Benhamou : Anglaise, oui sans La Fayette.

Sky : Je vous coupe : que dire de la visite de Larry Fink, patron de BlackRock, à l’Élysée ?

Tariq Krim : Rien de particulier.

Bernard Benhamou : Je n’ai pas d’infos. Mais de fait ! C’est intéressant d’un point de vue logiciel. BlackRock fait partie de ces sociétés qui ont développé un savoir-faire sur l’évaluation du risque qui parfois a pu être utilisé y compris même au sein des gouvernements. C’est vrai qu’on a, je dirais, une interpénétration. On a beaucoup parlé pour l’administration d’Obama de Google, d’une Love Story entre Obama et Google. Là, on voit effectivement qu’il y a une porosité, y compris en période de risque, qui est une chose qui peut poser problème.

Sky : Vous chiffrez avec quoi ?

Bernard Benhamou : Chiffrer ? Avec PGP27 [Pretty Good Privacy].

Tariq Krim : Je ne sais pas. Pour les communications ? Je suis embêté parce que j’aimais beaucoup Signal28. Déjà parce que les deux cofondateurs de WhatsApp sont des trumpiens à fond. Je suis un peu gêné. Sinon rappeler que de toute façon, quand quelqu’un owne le téléphone, quel que soit le logiciel qu’on utilise, on est coincé !

Bernard Benhamou : On est coincé ! Il y a un vrai problème. Je ne voudrais pas revenir systématiquement sur l’antitrust, mais qu’il y ait deux plateformes qui trustent à elles seules 95/98 % du marché, donc iOS et Android, et que ces deux plateformes soient américaines, c’est en soi effectivement une exposition au risque maximum.

Sky : On arrive à la fin de notre interview. Vous allez nous conseiller trois livres chacun.
Bernard.

Bernard Benhamou : Je vais revenir sur Shoshana Zuboff, Le capitalisme de surveillance, remarquable. Extraordinaire. Je précise que normalement en octobre il devrait être traduit en français, c’est un gros pavé mais qui mérite vraiment d'y consacrer du temps.
Puisque j’ai cité Lessig, tout Lessig mérite d’être cité. Là encore, un livre que j’ai souhaité faire traduire et à l’époque tous les éditeurs de la place de Paris m’ont dit « magnifique livre, mais vous n’aurez que 300 lecteurs maximum si on le fait traduire », c’est son premier, c’est-à-dire Code et autres lois du cyberespace qui reste d’actualité. Il a même fait une version élaborée en collectif, qui s’appelle Code 2.0, qui est assez remarquable.
Je vous ai parlé de The Black Box Society de Frank Pasquale, qui est vraiment utile.
Mariana Mazzucato L’État entrepreneur, The Entrepreneurial State. Je n’ose revenir sur la phrase d’un certain Georges Bush Junior qui avait dit « les Français n’ont pas de mot pour entrepreneur », sachant que c’est un mot d’origine française, donc que l’État doive être entrepreneur est une chose qu’elle nous rappelle très utilement.

Sky : Tariq.

Tariq Krim : J’allais aussi dire The Black Box Society, mais je vais en proposer d’autres.
En ce moment je suis fasciné par les uchronies, j’ai toujours aimé cette idée qu’avait Fatherland.

Sky : Il faut que tu expliques « uchronie ».

Tariq Krim : L’uchronie, alternative timeline in timeline alternative.

Bernard Benhamou : What if? Qu’est-ce que si ce serait passé si… les États-Unis avaient été colonisés pas les nazis.

Tariq Krim : J’ai été par ce film qui a été inspiré du livre Fatherland où on imagine Hitler gagner la guerre, donc rencontrer…

Bernard Benhamou : … envahir la côte Est.

Tariq Krim : Non, ça c’est une autre uchronie, Le maître du haut château, mais c’était rencontrer Kennedy à Berlin, le film est absolument génial, le livre est génial.

Sky : Des nazis sur la lune c’est lequel ?

Bernard Benhamou : Bonne question.

Tariq Krim : J’ai découvert un livre qui s’appelle Swastika Night, qui a été longtemps écrit sous un pseudonyme, le nom de la femme qui l’a écrit ne me revient pas [Katharine Burdekin], mais il a été écrit en 1937. Elle imagine comment l’Allemagne nazie dominait le monde 500 ans dans le futur, donc elle avait déjà imaginé la Deuxième Guerre mondiale. C’est un bouquin fascinant.
J’aime bien aussi Le capitalisme de surveillance, mais je vais choisir un autre livre d’une personne que j’aime beaucoup qui s’appelle Sherry Turkle, qui est un peu une de mes maîtres à penser sur la question de la vision du numérique et de la sociologie qui s’appelle Alone Together, où elle a un peu décrit cette vision du numérique.
Après, pour tous ceux qui aiment le hack et qui ont envie de lire le bouquin de référence, je le dis maintenant parce que j’avais l’impression que tout le monde l’avait lu, Terminal Compromise de Winn Schwartau qui explique, en fait, le concept de Pearl Harbor électronique et qui a été un des pionniers. Il y a aussi Le nid de coucou de Clifford Stoll qu’il faut relire, Clifford Stoll qui, suite à une erreur de comptabilité de un dollar, a fait tout ce travail de découvrir des hackers allemands qui étaient plus ou moins affiliés au Chaos Computer Club, qui vendaient des secrets aux Russes et c’est écrit comme un roman incroyable. Pour les gens qui veulent voir un peu ce qu’était l’Internet dans les années 80, avant même l’Internet officiel, c’était encore l’Arpanet, c’est fantastique, il n’y a pas besoin d’être très bon techniquement. Ce type est brillantissime, un peu dingo et il nous avait prévenus, tout ce dont on parle. Il a écrit un deuxième livre beaucoup plus sombre sur l’avenir du numérique et qui correspond un peu aux thèmes qu’on a abordés aujourd’hui.

Sky : Vous connaissez le travail d’Alain Damasio.

Tariq Krim : Oui.

Bernard Benhamou : Oui, bien sûr.

Sky : Un conseil pour les jeunes générations, quelque chose d’impérissable qui va rester sur le Net ?

Tariq Krim : Je n’aime pas l’idée d’apprendre à coder parce que c’est toujours le truc, le poncif, mais apprendre à être curieux.

Bernard Benhamou : Apprendre à maîtriser les sources d’information. La veille devient une des formations, un peu comme la maintenance informatique est un métier qu’on doit tous apprendre douloureusement. Tous ! On y passe un temps ! Dans notre vie on dit qu’on passe un tiers du temps à s’occuper d’un ordinateur sans être productif sur un ordinateur ce qui est déjà énorme.
Je dirais qu’apprendre à maîtriser les sources d’information, les mettre en perspective. Je ne parle pas de fact checking, ce n’est pas le terme, mais comprendre comment on nourrit sa réflexion par rapport à un sujet. Étendre et croiser les sources d’information, c’est peut-être la nouvelle nécessité humaine des temps qui viennent.

Tariq Krim : J’ai l’inverse : c’est apprendre à s’exprimer clairement. J’ai eu la chance une fois de me retrouver pendant une demi-heure seul avec Steve Jobs, il y a des années. Il était au down de sa carrière quand il faisait NeXT et ce qui m’avait fasciné, on m’avait dit « c’est un tchatcheur, il ne connaît rien à la technologie ». Tous les trucs qu’il avait vus étaient bons – le wifi, l’USB – tout ça ce sont des décisions, donc il maîtrisait parfaitement la technologie, mais il avait une capacité d’éloquence, de réduire ses idées, simples, qui était fascinante. Encore aujourd’hui, il y a plein de gens qui veulent se prendre pour Steve Jobs, ils imitent le style, la simplicité, les powerpoints, mais sa vraie force c’est qu’il était capable de réduire l’essence de qu’il était, de ce qu’il voulait.
Je pense que chacun a le droit de penser ce qu’il veut, mais il doit apprendre à l’exprimer. C’est un travail.

Sky : À synthétiser. À résumer la quintescence de ses idées.

Tariq Krim : Exactement.

Bernard Benhamou : Absolument.

Tariq Krim : Et les défendre.

Bernard Benhamou : Et les défendre bien sûr.

Sky : Vous voulez ajouter quelque chose ? Messieurs, merci.

Bernard Benhamou : Merci à vous.

Tariq Krim : Merci beaucoup.

26 July 2020

de_crevoisier.png LE-ROUTEUR-WIFI.COM

Netgear EX7700 : Le répéteur le plus puissant de ma sélection

Le 26 July 2020 à 12:51:12

Quand on pense répéteur, souvent on pense petit appareil d’appoint qui permet d’attendre encore un ou deux ans avant de passer à une solution plus pérenne, plus puissante, plus élégante. Et comme en toutes choses nous n’avons pas toujours raison, ou il y a toujours des exceptions. Comme nous le verrons, le Netgear EX7700 est une belle exception.

Rappelons rapidement ce qu’est un répéteur, il s’agit d’un dispositif réseau qui a pour but de pouvoir « prolonger » votre réseau WiFi existant. C’est-à-dire, qu’en utilisant le même SSID (le nom de votre réseau), un répéteur diffuse le même réseau WiFi, là où auparavant il n’y en avait pas.

Netgear EX7700
  • Performances
  • Simplicité
  • Design
  • Prix
4.9

Répéteur wifi pour gamers

Ce répéteur Netgear EX7700 est un ajout intéressant à la gamme Nighthawk. Il est clairement au-dessus de la plupart des répéteurs, que cela soit au niveau des performances que du design.

Présentation du Netgear Nighthawk EX7700

Bon déjà, à la réception, on est un peu surpris par la taille de la boite, pour un répéteur, c’est une boite assez volumineuse, que l’on s’attend plutôt à trouver pour un routeur. La boite, comme à l’accoutumée, reprend les principales caractéristiques du Netgear EX7700, une bien jolie boite.

A l’ouverture, nous retrouvons, le Netgear EX7700 (heureusement !), son bloc d’alimentation, une notice et un guide de démarrage rapide.

Passé ce mini choc de taille de boite, vient le second, le design du répéteur, tout en angles, noir, du plus bel effet, du moins très à mon goût. Petite parenthèse culturelle, j’ai lu ici ou là concernant ce Netgear EX7700 que son design rappelle certains accessoires gaming, ou bien que le design très agressif rappelle certaines voitures de course… quel manque de culture…

Non, son design, rappelle tout simplement le nom de la gamme, Nighthawk, Faucon de nuit… c’est une référence au mythique avion d’attaque Lockheed Martin F-117 Nighthawk. Vous n’avez qu’à rechercher une photo de l’engin pour vous en convaincre ! Cet avion est comme on dit, furtif, d’où les plaques angulaires noires, comme sur le répéteur.

Bref, espérons que le répéteur ne fasse pas dévier les ondes, comme le plaquage du F-117, et espérons également que Netgear ne soit pas trop déçu que si peu de rédacteur comprennent la référence, ou aient fait si peu de recherches. Fermons la parenthèse, et retenons, que le design est superbe.

Sur la face avant, en haut, trônent 4 diodes d’état, et en bas, le nom de la marque est inscrit en lettres argentées. A l’arrière, on retrouve, comme souvent la connectique du produit, de gauche à droite vous aurez donc droit à, de gauche à droite, un bouton WPS, deux ports ethernet à la norme Gigabit, un bouton ON/OFF, une prise d’alimentation électrique, et un bouton de reset.

Le répéteur mesure 20 centimètres de haut, pour 15 de large sur 5.5 cm de profondeur.

Nous avons donc un répéteur avec un look agressif d’avion de chasse, qui offre une belle connectique, mais plus imposant que les routeurs d’autres marques. Et au niveau des caractéristiques techniques ?

Le Netgear EX7700 est un répéteur tri-bandes, une à 2.4GHz et deux autres à 5 GHz. Le tout est diffusé et réceptionné, par 4 antennes internes.

Donc, le Netgear EX7700 fonctionnera avec les appareils en WiFi b/g/n, c’est-à-dire en 2.4 GHz et en WiFi ac, le WiFi 5 et donc le 5 GHz.

Un truc intéressant, ce répéteur peut s’intégrer dans un système mesh de la même marque, ce qui a mon sens, comme je pense que c’est l’avenir des réseaux sans fil domestiques, est une très bonne chose.

Installation

La mise en place peut se faire de deux manières. La première, la moins prise de tête, très adaptée aux personnes ayant le moins l’habitude, consiste à pousser le bouton WPS sur le répéteur et sur votre box (ou routeur). Là, le réseau WiFi est cloné, et c’est fini. Vous pouvez placer le répéteur à l’endroit qui vous convient, tant qu’il est encore à portée du réseau initial.

La seconde méthode, qui n’est pas bien compliquée non plus, utilise l’application de Netgear, il faut donc l’installer sur votre smartphone Android, ou sur votre iPhone. Vous aurez alors bien plus de choix dans la configuration du Netgear EX7700. A noter, que du coup, avec cette méthode, il est possible de choisir si vous voulez que l’appareil agisse en tant que répéteur, ou en tant que point d’accès. Vous pouvez aussi choisir le nom du réseau, et d’autres petites subtilités, ce qu’il n’est bien entendu pas possible avec la première méthode.

Avec cette appli, une fois l’installation terminée, vous pourrez voir quels sont les périphériques clients qui sont connectés, activer ou désactiver les LED (pratique si l’appareil est dans votre chambre), mais c’est à peu près tout, on verra par la suite si des mises à jour apportent de choses nouvelles. Il n’y a pas, par exemple, de contrôle parental, pas de filtrage par URL ou par mots clés. Par contre, vous pourrez planifier les plages horaires durant lesquelles le répéteur sera actif ou non.

Performances

Bon, disons-le tout de suite, les performances sont très bonnes, certes, comme pour tous les autres périphériques réseau, vous n’atteindrez pas les débits maximums théoriques annoncés par le fabricant, et pour cause, ils sont inatteignables, mais nous avons chronométré le EX7700 à près de 61 Mo/s. Ce débit a été mesuré lors d’un transfert de fichiers entre deux machines situées dans la même pièce que le répéteur, c’est-à-dire sans obstacle.

En écartant les PC du Netgear EX7700, c’est-à-dire en essayant de reproduire une situation plus proche de la réalité, les débits baissent logiquement, pour atteindre une quarantaine de Mo/s. Dans cette configuration nos deux machines sont situées dans deux pièces différentes qui sont séparées par une cloison.

Nous ne l’avons pas encore dit, mais ce répéteur dispose de la technologie MI-MIMO, comme les routeurs haut de gamme. C’est-à-dire que ce répéteur est capable de traiter les données de plusieurs utilisateurs en même temps, sans perte de débit pour l’usager.

Conclusion

Ce répéteur Netgear EX7700 est un ajout intéressant à la gamme Nighthawk. Il est clairement au-dessus de la plupart des répéteurs, que cela soit au niveau des performances que du design.

C’est donc un très bon répéteur, qui pèche juste par le manque, actuel, de fonctionnalités de son application, mais gageons que cela changera rapidement. En tout cas, les performances sont vraiment honorables. Le prix du Netgear EX7700, compte tenu de ses performances est assez contenu pour lui garantir un bon rapport qualité/prix.

Netgear EX7700
  • Performances
  • Simplicité
  • Design
  • Prix
4.9

Répéteur wifi pour gamers

Ce répéteur Netgear EX7700 est un ajout intéressant à la gamme Nighthawk. Il est clairement au-dessus de la plupart des répéteurs, que cela soit au niveau des performances que du design.

The post Netgear EX7700 : Le répéteur le plus puissant de ma sélection appeared first on Routeur-Wifi.

24 July 2020

de_crevoisier.png LE-ROUTEUR-WIFI.COM

Réseau à domicile et réseau professionnel : les différences fondamentales

Le 24 July 2020 à 12:45:31

Aujourd’hui on répond à une question d’un membre de ma famille, oui vous avez bien lu, je puise mon inspiration là où j’en trouve. Et puis tester des routeurs, des CPL, des répéteurs WiFi c’est cool et j’adore ça, mais aujourd’hui on fait une petite récréation.

Donc la question était « Mais en fait, en entreprise, le réseau ça marche comme à la maison ? », je vais vous donner tout de suite la réponse, oui, mais non, enfin, oui, mais pas tout à fait, enfin bref, je pense que ce sera plus clair en développant un peu.

Le réseau à la maison

On va faire beaucoup de raccourcis, car ça sera plus simple, donc si c’est possible que « Jean Administrateur réseau » comprenne qu’on parle plutôt à Monsieur tout le monde qu’à lui, car lui il connait déjà tout ça, et donc qu’il range son commentaire, ça serait bien.

A la maison donc, vous avez votre box, la fameuse, branché à votre arrivée internet, c’est-à-dire à une prise téléphonique, ou à l’arrivée fibre, plus rarement elle peut aussi être connecté au réseau mobile via une carte SIM. Déjà, le terme Box, n’existait pas il y a encore quelques années, ce mot, inventé (probablement par Free), signifie que cet appareil en regroupe en réalité plusieurs.

En réalité, votre box, est un modem, un routeur, un switch réseau et un disque dur réseau, pour les plus simples. Elles peuvent regrouper encore d’autres fonctionnalités. De plus, là on parle matériellement, mais elle regroupe aussi logiciellement pas mal de fonctions, parlons seulement par exemple, du serveur DNS, ou du serveur VPN.

Donc au final, tous ces appareils et ces fonctionnalités sont regroupées au sein d’un même boitier afin de gagner de l’espace, peut-être, mais surtout pour pouvoir complexifier les réseaux des particuliers sans avoir à les instruire sur les réseaux. On branche, ça fonctionne (pour schématiser, parfois ça peut être un poil plus compliqué), et pourtant on bénéficie d’un matériel assez évolué.

Par exemple, il y a quelques années, quand les box n’existaient pas, on reliait un PC à un modem lui-même branché à une prise téléphonique pour avoir accès à Internet. C’est ce qui était fournis en standard par le FAI, un modem. Mais alors, pas de routeur, pas de switch etc… on ne pouvait avoir accès à internet que depuis un unique PC, et il était impossible de transférer un fichier d’un PC à l’autre juste avec ce matériel, par exemple. Et je ne vous parle même pas de la TV par internet, du téléchargement autonome, des disques durs réseau, de la téléphonie…

On le voit donc, la box est déjà, en elle-même, un concentré de matériel, qui existe parfois, individuellement en entreprise.

Le réseau en entreprise

Pour grossir le trait, on va parler ici des grosses entreprises, mais toujours en simplifiant. Dites-vous bien que la boulangerie du coin est équipée comme vous, pas de matériel ou de fonctionnalités spécifiques.

Illustration de mbi85.fr

Majoritairement, ce qui fait la différence entre le réseau de chez vous et celui au travail, c’est deux facteurs principaux, le nombre d’utilisateurs et la sécurité.

Il n’existe pas de « box » qui pourrait permettre à mettons 500 utilisateurs d’utiliser internet en même temps, ou bien de récupérer des fichiers stockés sur le disque dur intégré en même temps.

Les périphériques, ne sont donc pas regroupés au sein d’un même appareil, mais au contraire séparés, et même parfois doublés, triplés, quadruplés, tout dépend du nombre d’utilisateurs et de la sécurité voulue.

Déjà il y a plusieurs arrivées internet, et donc plusieurs modems. Une seule connexion n’étant pas suffisante pour un très grand nombre d’utilisateurs en simultané, et si un problème survient sur l’une des lignes, il est également intéressant d’en posséder plusieurs afin de pouvoir continuer de travailler.

Ces modems, débouchent sur un ou plusieurs firewalls, ils sont là pour assurer la sécurité de l’ensemble, prévenir les intrusions, ou éviter que des logiciels non autorisés sortent des données du réseau local. Chez vous, ce firewall est logiciel et il est inclut dans votre système d’exploitation, ou dans votre antivirus, ou encore directement dans votre routeur ou box. En entreprise, ce dispositif est dédié, matériel, ce sont des serveurs qui ne font que ça.

Ensuite (on essai de suivre la chaîne de connexion, de la prise téléphonique jusqu’au PC), au routeur. Parfois, le routeur peut être inclus dans firewall, ou, pour les entreprises avec un peu moins d’utilisateurs, directement dans le modem, on parle alors de modem routeur.

Ensuite, les données arrivent sur les switchs sortes de grosses multiprises qui permettent d’interconnecter tous les périphériques de l’entreprises au routeur. Tous les ordinateurs, imprimantes… il faut bien entendu oublier le switch 4 ports de votre box, ici on parle de plusieurs switchs, d’une cinquantaine de ports chacun.

Enfin, un câble part de l’un de ces switchs, passent dans le faux plafond et arrive dans votre bureau.

Ça c’est pour le réseau dans le sens connexion internet et réseau local, mais il y a bien entendu, les serveurs de production, qui vont héberger vos applications métier ou vos sites web par exemple, des NAS qui s’occupe du stockage des fichiers, des serveurs d’impression, des serveurs de back up qui vont sauvegarder le travail du jour, un serveur DNS dédié, un serveur VPN dédié… et parfois, tout cela est doublé, en cas de disfonctionnement d’un appareil.

Depuis quelques années, beaucoup de ces serveurs dédiés sont virtualisés, c’est-à-dire que le serveur s’exécute sur un autre, ce qui permet entre autres, de pouvoir faire tourner plusieurs machines virtuelles sur un gros serveur. On comprend que c’est bien plus simple à maintenir, à sauvegarder, à dupliquer, à réparer etc…

Donc, si on doit répondre à la question du départ, sur le principe, oui, un réseau d’entreprise, à part quelques spécificités, c’est la même chose que le réseau de chez vous, mais en beaucoup plus gros, beaucoup plus sécurisé et beaucoup plus redondant. La Box, est vraiment un atout indispensable à la généralisation de l’internet et des réseaux modernes. Si il fallait que chaque appareil soit installés séparément, pour bénéficier de la même qualité de service, beaucoup d’utilisateurs auraient un réseau des années 2000.

The post Réseau à domicile et réseau professionnel : les différences fondamentales appeared first on Routeur-Wifi.

april.png Nouvelles April

Sécurité numérique - Lutte inégale entre le glaive et le bouclier ? - Guillaume Poupard

Le 24 July 2020 à 08:57:36


Cyberbase de Morlaix

Titre : Sécurité numérique - sommes-nous condamnés à une lutte inégale entre le glaive et le bouclier ?
Intervenant : Guillaume Poupard
Lieu : Collège de France - Séminaire de Gérard Berry - « Où va l’informatique ? »
Date : février 2019
Durée : 1 h 10 min 38
Visionner ou enregistrer la vidéo
Licence de la transcription : Verbatim
Illustration : security, Cyberbase de Morlaix Communauté - Licence Creative Commons Attribution – Pas d’Utilisation Commerciale – Partage dans les Mêmes Conditions 3.0 non transposé.
NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Transcription

Bonjour à tous.
C’est un grand honneur, je vais remercier Gérard [Berry] de son invitation, c’est un grand honneur et un peu une escroquerie en même temps, vous voyez il n’y a pas de slides, un artefact de cette escroquerie.
Ça fait très longtemps que je ne fais plus de science, je baigne dans la technique au niveau de l’ANSSI [Agence nationale de la sécurité des systèmes d'information ] et dans mes postes d’avant. Je ne fais plus de science, donc je ne vais pas vous parler de science, je vais vous parler de sécurité numérique telle que je la vis au quotidien, avec une deuxième escroquerie, c’est que je vais répéter ce qu’a dit Gérard. Je connais d’autres histoires, mais je n’ai pas le droit de les raconter, donc je vais m’appuyer sur celles-là qui sont publiques et qui sont déjà très éloquentes. Les autres, celles qui sont secrètes, elles ne sont pas plus éloquentes, c’est juste qu’il y en a beaucoup plus, de fait, malheureusement. Donc quand on connaît les histoires secrètes, on est juste encore plus inquiet fondamentalement. D’un point de vue qualitatif, là on a déjà l’essentiel.
Je vais reprendre un petit tout ça, donc je suis désolé il y aura plein de répétitions. Je vais vous redire la même chose sous l’angle, je ne sais pas comment dire ça, de l’administration, des pouvoirs publics, appelez ça comme vous voulez. L’idée c’est vraiment de vous convaincre qu’on a un vrai sujet avec ces questions de sécurité informatique, raison pour laquelle je dois bien avouer que j’ai été très agréablement surpris que ce dernier cours technique soit consacré à la sécurité, parce que, justement, je suis totalement convaincu que ce développement de l’informatique – il ne faut plus dire informatique, il faut dire numérique, encore mieux digital, bref, c’est de l’informatique tout ça – ce développement de l’informatique, qui s’est parfois opposé aux gens qui faisaient de la sécurité, ne sera pérenne et ne sera source de progrès que si les questions de sécurité sont prises au juste niveau. Et ce juste niveau est probablement très élevé, mais ce sera à vous de faire votre idée là-dessus.
À l’inverse, cette approche de la sécurité qui est souvent très noire, très pesante, c’est un peu tous les malheurs du monde dans ce monde numérique, on sait trouver des solutions, je vais essayer de vous en convaincre, on sait faire bien, c’est mal fait en général, mais ce n’est pas une règle. On sait bien faire, par contre ça demande de la compétence, ça demande des efforts, ça demande un peu d’argent, un peu de moyens, au juste niveau là-encore. Et si cet effort est fait, je suis persuadé qu’on sait tout à fait résoudre la plupart des grands problèmes aujourd’hui, il n’y a pas de verrous comme on pourrait dire. On a probablement encore quelques gros problèmes technologiques à résoudre, mais même ceux-là seront résolus, je n’ai absolument aucun doute. Par contre, il faut arrêter de développer quick-and-dirty, de développer comme des cochons parce que c’est très souvent ça la base du problème. Il faut également arrêter de se comporter comme des cochons parce qu’on est tous un peu responsables parfois de ces problèmes de sécurité numérique où on fait mal parfois, d’ailleurs parfois on sait qu’on fait mal. C’est un peu tout ça qu’il faut faire évoluer et c’est absolument indispensable et ça peut avoir des enjeux très forts, y compris en termes de sécurité nationale, c’est un peu le domaine dans lequel je suis aujourd’hui, puisque l’ANSSI en fait – je ne veux pas vous faire l’explication de ce qu’est l’ANSSI – c’est une entité qui dépend du Premier ministre et qui s’occupe de sécurité informatique avec, comme filtre essentiellement de prioriser tout ce qui concerne notre défense et notre sécurité nationale. Donc tout ce qui peut menacer la nation et la nation ce n’est pas l’État, la nation c’est vous, c’est moi, c’est toute cette cohésion qui peut aujourd’hui être gravement mise en danger par ces questions d’attaque informatique.
Il y aura toujours des attaquants, il y en aura toujours de plus en plus, ils seront toujours plus agiles, toujours plus forts, et ce sont toujours eux qui jouent avec les Blancs. De toute manière, il ne faut pas s’imaginer que tout ça est un effet de mode qui va passer, je ne vois vraiment pas par quel miracle ! Non ! Ce qu’il faut vraiment c’est prendre ce sujet à bras le corps.

Si on revient un petit peu sur les menaces, ça a été très bien dit, donc je reprends les mêmes exemples quelque part et avec une approche différente. C’est compliqué parce que très souvent, dans les médias, tout se mélange, on a l’impression que toutes les attaques sont au même niveau, c’est très anxiogène, mais on ne comprend pas très bien et à chaque fois c’est toujours la plus grande attaque de tous les temps parce qu’il faut faire des grands titres, évidemment. D’ailleurs, des fois j’attrape les journalistes qui écrivent ça, je dis « pourquoi vous avez dit ça ? Vous savez très bien que ce n’est pas le cas. — Ce n’est pas moi qui fais les titres, moi je ne fais que les articles, c’est mon rédac chef qui fait les titres », c’est sûrement vrai d'ailleurs.
Mais de fait de quoi on parle en général ? Ce qui fait souvent les grands titres ce sont les fuites massives de données, ces bases de données qui sortent, en ce moment c'est constamment, venues dont on ne sait trop où ; les motivations des gens qui publient ça sont parfois un petit peu obscures, pour être franc. Beaucoup plus souvent venues de la réglementation. Le Règlement général sur la protection des données1 qui est une approche européenne de la protection des données personnelles, c’est une avancée majeure sur la protection des données personnelles. On verra ! C’est probablement quelque chose qui méritera, à un moment, qu’on fasse du RETEX [retour d'expérience], il faudra comprendre ce qui marche bien, ce qui est excessif, ce qui est sous-dimensionné. Mais le fait, quand on perd des bases de données qui nous concernent, nous en tant qu’utilisateurs, le fait d’avoir à le dire, eh bien c’est probablement une bonne démarche, même si parfois dans mon métier ça m’embête, on pourra y revenir.
J’ai reçu des mails de Starwood me disant que mes données avaient été perdues. Mes gars sont allés voir dans la base de données de 700 et quelques millions d’adresses mails et ils sont venus me voir, un sourire en coin, en me disant « tiens il y a ton adresse mail perso qui est dedans et il y a aussi tes mots de passe, tu devrais faire gaffe ! » Bref ! On est souvent tous concernés par ces choses-là. Et ça c’est un peu le fonds de roulement, c’est un peu avec ça qu’on commence à vivre, à tel point que ça m’inquiète un peu, parce que comme c’est tous les jours, à force d’entendre la même fréquence en continu, le cerveau est bien fait, il finit par ne plus l'entendre, donc le danger ce serait ça, ce serait qu’on s’habitue au fait que finalement, toutes ces fuites de données, c’est quelque chose de normal et ce n’est pas normal ! J’avance vite là-dessus.
Après on a des attaques qui sont visibles mais qui ne sont pas graves – pas graves ça dépend pour qui ! –, régulièrement on a par exemple des attaques en déni de service qui bloquent des sites web. Bloquer des suites web, encore récemment, vous avez remarqué que les samedis étaient un peu agités, il y a un peu la même chose dans le monde numérique et parfois il y a des appels à bloquer des sites internet. On ne sait pas trop d’où ça vient. Il y a même eu récemment un communiqué de démenti d’Anonymous qui disait « non, nous on n’est pas d’accord, on ne veut pas attaquer les sites web ». Je vous laisse chercher à comprendre tout ça. Et c’est quoi bloquer un site web ? Simplement on va, comme ça, utiliser plein d’objets connectés, de machines compromises, sans que ça ait beaucoup d’impact d’ailleurs pour les détenteurs et ainsi de suite, et puis on va aller saturer des sites web ce qui fait que le site web n’est plus accessible pendant quelques minutes, c’est arrivé au site de l’ANSSI, ça arrive parfois aux meilleurs. Ce n’est pas très grave fondamentalement parce que ces sites web ne sont pas des outils opérationnels, il n’y a rien qui dépend vraiment de l’accessibilité à ces sites Web.
Quand vous appelez la Fnac et qu’on est à trois jours de Noël, là, la question se pose différemment, très clairement. Mais je vais va rester sur mon exemple, si un samedi après midi le site web de l’ANSSI est inaccessible pendant cinq minutes, ça ne change pas la face du monde ! Je suis d’ailleurs surpris qu’il y ait des gens qui l’ont remarqué, mais c’est pour être méchants !
Et pourtant, ça peut faire du bruit et pourtant ça peut réellement entamer la confiance qu’on veut développer dans le numérique, et ça peut être mal interprété.
Si le site internet institutionnel du ministère des Armées est bloqué comme ça pendant dix minutes, le titre dans la presse va être « Attaque informatique massive contre les armées françaises ». Mes collègues du ministère des Armées sont à chaque fois désespérés quand ils entendent ça, parce que non ! Ça ne fait ni chaud ni froid aux armées françaises le fait que le site soit tombé pendant quelques minutes, mais on commence à toucher à la confiance. Tout ce dont on parle là c’est finalement une question de confiance. C’est très technique mais au final c’est la confiance des utilisateurs, de vous, de moi dans ces systèmes-là qui est en jeu, cette confiance est très fragile.
Il y a d’autres types d’attaques, toujours sur les sites web d’ailleurs parce que c’est la partie visible. On a connu beaucoup ça en 2015 dans un contexte très désagréable qui était celui des attaques contre Charlie Hebdo, l’Hyper Cascher, début 2015, cette mauvaise période, eh bien on a eu plein d’attaques de sites internet en .fr , évidemment en .gouv.fr, pour aller afficher des messages. C’était assez variable, ça allait de « nous on n’est pas Charlie », vous vous souvenez de tout ça, à des trucs très agressifs, très pro-terroristes. Est-ce que c’est grave ? Pareil, question de jugement. Ça n’a pas forcément d’impact opérationnel, mais l’exemple que je prends toujours, le jour où vous avez vu un drapeau de Daesh en guise de page d’accueil sur le site web de votre mairie, eh bien après vous avez toujours une petite appréhension à aller inscrire vos gamins aux activités périscolaires. Et pourtant c’est vers ça qu’on veut emmener nos concitoyens.
Je prends souvent l’exemple : c’est du tag numérique, c’est du tag comme on peut en faire sur un bâtiment, il y a toujours des imbéciles pour faire des tags et tout ça. Ce n’est jamais très bon, sauf que là c’est fait sur Internet donc c’est fait à la face du monde et il y a un effet d’amplification qui est potentiellement très grave. Mais si c’est bien fait, si les systèmes sont bien faits, évidemment il y a une condition dans la phrase, eh bien ça n’a pas d’impact opérationnel très grave parce qu’on ne rentre pas au cœur des systèmes qui sont censés être critiques.
Je passe là-dessus.

Beaucoup plus grave, le développement de tout ce qui est criminalité. La criminalité ça commence à de la petite escroquerie sans un aucun moyen d'ailleurs, qui est plus astucieuse qu’autre chose. En ce moment, juste pour illustrer, il y a toute une campagne de gens qui vous envoient un mail, qui vous disent dans un français parfois approximatif, ça sent le Google Translate, « je suis un méchant hacker, j’ai pris le contrôle de votre machine, j’ai pris le contrôle de votre webcam, je vous ai filmé en train de faire des choses inavouables, mais je vais garder ça secret si vous me versez 200 euros, 2000 euros, les sommes varient, en bitcoins évidemment, sur tel wallet. » Extrêmement désagréable, même quand on a bonne conscience et tout ça, parce que c’est vraiment une atteinte à la vie privée et ça c’est très grave.
En fait, ces mails c’est du spam, ce n’est rien d’autre que du spam, ce ne sont pas des attaquants informatiques, ils n’ont pas attaqué votre ordinateur évidemment, ils n’ont pas l’effort d’attaquer votre webcam. Je ne dis que ce n’est pas faisable, mais ça demande un véritable effort, alors que là ils se contentent d’envoyer des mails à des centaines de milliers de personnes, des millions probablement vu le nombre de retours que j’ai eu eu simplement après un sondage. Dans le lot, tous ceux qui vont payer 1000 euros c’est autant de pris parce que l’effort par victime doit être de quelques centimes, s’il n’y a en que 1 % qui paye la rançon, le retour sur investissement, pour parler en termes économiques, est absolument colossal.
Petite escroquerie mais pénible !
Parfois ces gens-là sont très malins parce qu’ils vont aller piocher dans les bases de données de mots de passe qui ont fuité sur Internet, ils vont mettre ça dans leurs messages en disant « regardez, la preuve que je vous ai attaqué, je connais vos mots de passe ». Alors là, d’un seul coup on se dit « mince, il connaît mon de passe », donc c’est hyper crédible. Non ! On ne le sait pas forcément mais ces mots de passe sont déjà sur Internet, ce ne sont pas des secrets, ce ne sont plus des secrets.
Et puis, à l’autre bout du spectre, on a des escrocs qui sont très compétents techniquement, qui sont très dangereux, et qui ont compris que l’attaque informatique, les virus qu’on connaît qui sont aussi vieux que l’informatique et tout ça, ou presque, eh bien qu'on pouvait trouver un modèle économique dans ces virus. Avant, quand j’étais jeune — je commence à parler comme ça — les virus écrivaient des bêtises à l’écran, ils cassaient des disques durs, ils bloquaient la machine et tout ça, mais les gens qui faisaient ça ne gagnaient pas beaucoup d’argent directement manifestement.
Aujourd’hui c’est beaucoup plus simple, les rançongiciels, les ransomwares, les cryptolockers, il y a plein de noms comme ça, vont chiffrer les données. Au début ils chiffraient mal pour qu’on arrive à s’en sortir, aujourd’hui ils chiffrent bien, les gens qui font ça ont compris les principes de la cryptographie et ils vous disent « c’est bien simple, soit vous payez une rançon et on vous donne la clef de déchiffrement — d’ailleurs c'est très bien expliqué quand c’est bien fait — soit tant pis, vous avez perdu vos données ». Et puis là, si vous avez une bonne sauvegarde vous pouvez vous en tirer, si vous n’avez pas de sauvegarde ça peut être absolument dramatique de perdre ses données, donc c’est tentant, pour les victimes, de payer ces rançons. Évidemment, le message officiel sera toujours de ne pas payer les rançons, ce n’est pas bien de payer les rançons, ça encourage le crime, ce qui est vrai. Entre toutes ses données et 300 euros, je peux comprendre que certains payent. Le gros problème c’est que quand vous payez vous n’avez aucune garantie que vous allez réellement récupérer vos données. Vous avez quand même à faire à des criminels en face. On ne sait pas où ils sont, on n’est pas près de les attraper et ainsi de suite. Donc la qualité de service est variable, on va dire. Je dis ça sans rire. Des fois elle est excellente parce que certains de ces criminels ont justement à cœur d’avoir une très bonne réputation. Il faut que sur Internet on dise bien « moi j’ai payé et j’ai récupéré mes données, tout va bien ». Donc il y a en a qui ont une qualité de service qui est absolument remarquable et de fait ça marche bien.
Et puis il y en a d’autres qui développent comme des cochons, il y en a aussi chez les attaquants des gens qui développent comme des cochons et ces gens qui développent comme des cochons soit ils ne sont pas fichus de vous renvoyer votre clef, ils se trompent de clef, soit ils ne vous renvoient rien du tout, c’est une double escroquerie, soit ils se sont loupés dans le chiffrement ce qui fait que quand vous déchiffrez vos fichiers vous avez les 1024 premiers octets et le reste n’est pas déchiffré. Tout existe, on a tout vu.

Très souvent tout ça s’effondre, tout simplement, et typiquement l’attaque WannaCry2, c’était au printemps 2017. De fait, ce qu’on a pu tracer, tout ça c’est en source ouverte, c’est que l’attaquant a dû récupérer 30 000 dollars, par contre il a embêté la planète entière avec son truc et avec des conséquences dramatiques pour certains, le pire exemple étant en effet probablement le service de santé britannique : les hôpitaux ne marchaient plus, les systèmes d’ambulance ne marchaient plus, tout s’est complètement effondré. C’était un système qui était déjà connu pour être fragile donc ça a été un petit peu le coup de grâce. Tout ça a coûté très cher. Les estimations britanniques sont autour de 90 millions de livres, donc un système qui a déjà des problèmes de moyens il n’a pas besoin de payer ça. Et puis, quelque chose dont on ne parlera probablement jamais, c’est l’impact sur les personnes, parce que quand il n’y a plus d’hôpital et que les ambulances ne savent plus où aller, eh bien il y a des gens qui meurent probablement de manière prématurée. Et là, ce n’est pas pour faire de l’anxiogène pour l’anxiogène, mais on ne rigole plus, on n’est plus dans le déni de service, on n’est plus dans les pages web trafiquées, on est vraiment dans notre sécurité personnelle qui peut être totalement engagée.

Donc ça c’était WannaCry, ce n’était pas drôle, et c’est d’autant plus instructif que quand on a compris assez vite comment fonctionnait WannaCry – c’est un code assez complexe, c’est un mauvais escroc mais un bon développeur qui a probablement fait ça – on s'est rendu compte qu’il utilisait une faille qui s’appelle EternalBlue3 et cette faille n’est pas totalement anodine vu qu’elle a été volée à la NSA. On ferait des films avec tout ça, il y en probablement déjà d’ailleurs. C’est assez original ce qui se passe dans ce monde informatique parce qu’on a quand même peu d’équivalent avec le monde classique. De fait, la NSA, grand service de renseignement technique américain, qui fait de l’attaque et de la défense, c’est un peu mon homologue aux États-Unis, ça vous donne un petit peu la teneur des relations internationales que l’on développe, c’est intéressant au sens anglais du terme, ils font beaucoup d’attaques, ils l’assument pleinement. Pour faire de l'attaque ils développent des outils, ils ont des bases de vulnérabilité. Ils font des outils qui sont plutôt très performants. Quand ça fuite – par contre, parfois, ils ne sont pas très bons pour garder les secrets, Edward Snowden en a fait la preuve – dans ce qui a fuité, c’est une base de données absolument incroyable, on trouve des outils, on trouve les modes d’emploi de ces outils, on trouve les slides, les présentations pour expliquer à quel point tout cela est génial et se faire mousser auprès de ses autorités, on trouve même des compte-rendus d’utilisation de ces outils pour dire tel machin contre tel site c’est un succès ; quand on est dans la cible c’est un peu inquiétant donc après on va vérifier, tout ça est vrai. Et notamment, dans ce qui a été volé à la NSA par un groupe qui s’appelle The Shadow Brokers — qui est groupe ?, on ne sait pas ! — ils ont volé des tas de trucs, ils ont cherché à les mettre aux enchères, je ne suis pas sûr que ça ait marché, et puis ils ont fini par les rendre publics. Il y avait cette faille EternalBlue qui a tout de suite été jugée extrêmement critique par les spécialistes, qui s’attaque à un protocole, qui n’est pas le meilleur d’ailleurs, qui s’appelle SMB. Entre le temps de la publication de la faille, la réaction très rapide objectivement, notamment de Microsoft pour patcher ce truc, et l’attaque, il s’est écoulé suffisamment peu de temps pour que beaucoup d’utilisateurs n’aient pas eu le temps, n’aient pas pris le temps de patcher les systèmes.
On est dans une situation où des gens très forts se font piquer des choses très dangereuses, imaginez une des premières armées au monde qui se fait piquer des armes, comme ça, il y a vraiment ça dans le monde numérique et puis utilisées par on ne sait trop qui pour faire de l’extorsion, pour faire de l’escroquerie, des choses comme ça.
C’est vraiment contre ça qu’il va falloir apprendre à lutter dans le futur.
Je passe. C’était quand même intéressant l’attaque WannaCry.

Dans la foulée, on a eu NotPetya4, un peu différent, qui utilisait d’ailleurs un peu la même faille mais pas seulement. NotPetya c’est un peu différent parce que déjà, quand c’est arrivé, on avait passé un mauvais mois avec WannaCry ; le mois d’avant c’était l’élection présidentielle, on avait également passé des week-ends difficiles. Donc ça recommence. On se dit mince, c’est une malédiction ! Et là, tout de suite, les experts me disent « attention fais gaffe, NotPetya ce n’est pas pareil. Ça ressemble, tout le monde, tous les médias commencent à dire que c’est une nouvelle campagne et ainsi de suite, encore plus forte que la précédente comme à chaque fois. Fais gaffe, ce n’est pas la même. On a commencé à analyser le malware, en fait il ne chiffre pas les données, il les efface. Ou alors il les chiffre et il efface la clef », faire ça, c’est probablement la meilleure manière d’effacer. Et là, ce qu’on a compris assez vite collectivement, tout cela est également en open source, c’est qu’en fait c’est l’Ukraine qui était ciblée et qui était ciblée de manière extrêmement habile puisqu’en Ukraine il y a un logiciel de comptabilité publique qui est obligatoire pour déclarer des taxes, des choses comme ça, on doit avoir la même chose en France et dans tous les pays du monde mais ce ne sont pas les mêmes. Et l’éditeur de ce logiciel qui s’appelle MEDoc s’est fait attaquer, la mise à jour du logiciel a été corrompue, le malware a été intégré dans cette mise à jour, et ensuite chacun, appliquant probablement les bons principes de l’ANSSI ukrainienne, que je ne connais pas bien mais qui doit exister, a mis à jour ses logiciels et, en mettant à jour, a également récupéré le malware. Donc ça, en termes de ciblage, c’est absolument incroyable. Et en termes d’objectif, c’est purement destructeur. C’est de la mauvaise intention, le but c’est vraiment d’aller embêter la cible, avec là une capacité de ciblage particulièrement intelligente.
Qui c’est ? Qui a pu vouloir comme ça se payer toute l’économie ukrainienne d’un coup ? Nous on ne fait pas d’attribution et c’est assez pratique, mais on peut avoir des idées, ce n’est pas interdit. Mes gars me disent : « L ’Ukraine c’est bien pratique, c’est une sorte de champ de tir numérique », les pauvres, il faut voir ce qu’ils prennent ! Le problème c’est que là encore les charges explosives étaient mal dosées et surtout, elles n’avaient pas prévu le fait que ça allait éclabousser complètement en dehors de l’Ukraine pour la simple raison que certes ce logiciel MEDoc est purement ukrainien mais après, les réseaux eux ne s’arrêtent pas aux frontières. Et tous ceux qui avaient un orteil, un bout de réseau, bref, qui avaient une connexion avec l’Ukraine – et c’est le cas de beaucoup de multinationales, évidemment – eh bien, il y en a plein qui se font fait infecter par ce truc qui était extrêmement virulent, qui était destructeur. Et là il n’était même pas question de payer une rançon, c’était complètement bidon cette espèce de pseudo-rançon qui était demandée, et, de toute manière, les données étaient effacées, purement et simplement.
Donc là on change de catégorie, on passe de l’escroquerie, qui peut être parfois menée par des États à des fins de récupération d’argent, à des choses qu’on pourrait quasiment qualifier d’actes de guerre. D’ailleurs c’est toute la question pour certains : est-ce que c’est un acte de guerre ou pas ce que je viens de vous décrire ? Il y a notamment, en ce moment, un conflit aux États-Unis entre une société qui a été victime et son assureur, parce que l’assurance cyber commence à se développer, où l’assureur dit « moi je n’assure pas les actes de guerre, allez relire votre police d’assurance, vous verrez que les actes de terrorisme, les actes de guerre, les trucs radiologiques, ne sont pas couverts en général par les polices d’assurance, en tout cas pas les polices standards ». Et là, si on leur dit « c’est un acte de guerre, c’est l’Ukraine qui se fait bombarder comme ça, moi je n’y peux rien, c’est en dehors de la police d’assurance », la victime à laquelle ça a coûté quand même pas mal de millions cette affaire, dit « je n’en sais rien du tout, ce que je vois c’est que j’ai payé une police d’assurance pour assurer mes systèmes, que tout est tombé et que maintenant vous refusez de me payer ». Donc ce procès va être intéressant en termes e jurisprudence.
Ça c’était NotPetya, pareil, printemps 2017, particulièrement intéressant.

Et puis on a quelques autres histoires comme ça à raconter de sabotages, d’attaques. On a eu TV5 Monde, en 2015, il y a un attaquant très fort qui s’est dit « je vais me faire TV5 Monde », qui était une victime faible d’un point de vue informatique parce qu’elle ne pensait pas être attaquée, elle ne pensait pas être une cible, c’était même crédible. En fait, tout le monde est une cible. C’est ça la conclusion de tout ça ! Un attaquant très fort s’en est pris à TV5 Monde et n’a pas cherché à lui voler des données ou quoi que ce soit, mais il est entré dans son réseau, il l’a cartographié pendant deux mois et, à un moment donné, ils ont déclenché leur attaque et ils ont détruit tous les équipements de production audiovisuelle, les uns après les autres. Détruire ça veut dire quoi ? Comment fait-on pour détruire des équipements à distance ? Aujourd’hui c’est bien simple, on va bousiller le logiciel qui est à l’intérieur, que ce soit du micro-code ou du logiciel sur une couche supérieure mais ça revient à peu près au même. D’abord, l’équipement ne marche plus ça c’est très clair, et même à réparer – les équipement de TV5 Monde sont partis à la benne, ils ont été remplacés par des neufs un peu mieux sécurisés. C’est totalement irréparable.
Donc on voit apparaître une liaison très forte entre le monde cyber, numérique, éthéré, que certains imaginent ou pensent imaginer, et puis ce monde physique bien réel. Et c’est l’enjeu auquel on est confronté aujourd’hui. Ce numérique est partout. Vous le savez, il est partout, il est dans les transports, il est dans tous les systèmes industriels. Il n’y a pas que les ordinateurs, il n’y a pas que la bureautique, il y a toute cette informatique industrielle, cette informatique très souvent cachée. Allez aujourd’hui dans une usine moderne, c’est incroyable ! Il y a des automates de partout et dans chaque petit automate, c’est de la taille d’un disjoncteur, à chaque fois il y a un processeur, de la mémoire, un Linux [GNU/Linux] pas patché en général, et puis des moyens de communication. Tout ça a évolué à une vitesse absolument incroyable et, en général, avec une maîtrise très limitée de la part des détenteurs de ces usines. Donc c’est vraiment ça la transformation qu’il y a et tout l’enjeu c’est comment est-ce qu’on fait pour faire cette évolution de manière sécurisée, donc sans ouvrir les portes en grand à tous ces attaquants qui ont les idées, qui ont déjà fait la preuve du fait qu’ils avaient ces idées.

On pourrait prendre plein d’exemples. On peut se faire très peur, sincèrement.
Au niveau de l’ANSSI on est plutôt sur le champ défense et sécurité nationale, ça veut dire qu’on prend ça par l’angle qu’est-ce qui est le plus grave, donc on s’intéresse à quoi ? On s’intéresse aux administrations les plus sensibles, aux ministères les plus sensibles, plus pour des raisons d’espionnage qui reste quand même le fonds de commerce. Et là, l’espionnage c’est intéressant parce qu’il n’y a pas de règles, quoi qu’on en dise, l’espionnage c’est également intéressant parce qu’on se fait aussi attaquer par nos alliés, donc ça pose les problèmes de manière très particulière. Il y a l’espionnage, très clairement. Et puis, au-delà de ça, on travaille depuis maintenant plusieurs années très fortement avec ce qu’on appelle les secteurs d’activité d’importance vitale, ça fait très techno dit comme ça. En pratique c’est qui ? Ce sont les gens qui font de l’énergie, l’électricité, qui la fabriquent, qui la transportent, qui la distribuent. Tout ça c’est informatisé, tout ça ne doit pas être attaqué ou attaquable.
On travaille avec les télécoms, beaucoup, pour les mêmes raisons, la 5G qui est un peu à la mode en ce moment. La criticité des réseaux 5G c’est à peu près l’équivalent, à terme, de la criticité de la distribution d’énergie, peut-être même pire, parce qu’en électricité vous pouvez toujours avoir une génératrice à diesel et tout ça, un moteur de sous-marin planqué dans le sous-sol pour faire de l’électricité si vous n’êtes plus alimenté par votre fournisseur, en télécoms ce n’est pas dit. Ces réseaux vont être très critiques, c’est ce qu’on appelle vraiment des infrastructures critiques, nous et nos alliés, pas que nos alliés, tout le monde d’ailleurs, tout le monde voit ça comme ça.
Les transports sont des sujets où on peut « s’amuser » à se faire très peur aussi, s’amuser avec des guillemets.
Aujourd’hui on n’a pas de terrorisme cyber, c’est encore une invention, c’est encore de la science-fiction. On a un terrorisme très rudimentaire et déjà efficace. Qu’est-ce qui se passera demain si un terrorisme technologique se développe ? Je prends des exemples, après j’aurai droit à des coups de fil « pourquoi tu as encore parlé de nous ? », j’en prends quand même un, ils sont habitués maintenant. Si demain un groupe terroriste fait la preuve qu’il a fait s’écraser un avion de ligne par de l’attaque informatique, on va rentrer dans une crise mondiale sans précédent. Je peux vous dire ce qui va se passer dans l’heure qui suit : il n’y a plus un avion qui décolle, par contre, après, je ne sais pas vous raconter l’histoire. Le seul truc c’est qu’il ne faut pas la vivre cette histoire, il ne faut pas en arriver là, donc on n’a pas le choix. Il y a peut-être des domaines où on peut attendre les attaques, fonctionner comme ça, jouer au chat et à la souris avec les attaquants et jouer par essais/erreurs, comme on le fait dans beaucoup de domaines. Mais dans ces secteurs absolument critiques on ne peut pas se permettre d’échouer, donc il faut anticiper, il faut prévenir, il faut se protéger. Et toutes les grandes idées de contre-attaque et tout ça seront vaines, très clairement, le mal sera fait.

Dans le domaine de la santé également — puis je vais arrêter là ma liste, mais il y en d’autres — toute la santé est en train de se numériser et c’est absolument formidable ce que l’on voit d’ailleurs, se numériser au niveau des infrastructures de santé, dans les hôpitaux, c’est juste fou, les XP cachés c’est une réalité, évidemment, mais aussi les clés USB. Juste une parenthèse, une anecdote personnelle. À la maison je suis un peu parano, je fais un peu gaffe, je fais gaffe à ce que j’installe — je reviendrai après sur les règles de sécurité —, je fais gaffe aux mails que je reçois. Je n’ai jamais eu de virus, il suffit de dire ça pour avoir un problème ce soir, ce n’est pas une provocation non plus, il ne faut pas prendre comme ça comme un défi, mais, de fait, je n’ai jamais eu de virus. La seule fois où j’ai eu un problème, en phase d’échographie pour un heureux évènement et tout cela, on fait des photos, tout allait bien et puis à la fin le médecin me dit : « Si vous voulez, si vous avez une clef USB, vous me la donnez, je n’ai pas le droit de le faire, mais je vous donne les photos sur la clef », très sympa. Je dis bien sûr, je n’étais pas là pour un faire un cours de sécurité informatique. Je donne ma clef, on rentre à la maison, tout va bien, je branche sur le PC, alors là, un festival ! Un festival ! Voilà ! C’est ce qu’on appelle un pot de miel, en fait, un truc non sécurisé où chacun y va avec sa clef, chacun amène son virus sans le savoir, ça fait une sorte de collection et chacun repart avec l’ensemble de la collection pour le coup. Ce qui me surprend encore, pour être franc, c’est que la machine continue à fonctionner. Pas mon PC, mais la machine pour l’échographie. Pourquoi ? Tout simplement parce que le machin a été fabriqué avec une version bien fixée de l’OS et surtout aucune procédure de mise à jour, évidemment parce que pour ça il faudrait que ce soit connecté et ce n’est évidemment pas connecté et puis ce n’est pas demandé par le client et voilà ! Au final, c’est catastrophique ! Là ce n’est pas grave ce que je vous raconte, ce n’est pas très grave. Le jour où ça touche un scanner, le jour où ça touche un équipement de radiothérapie, ça peut être beaucoup moins drôle, objectivement. Il y a ça et puis il y a toute la question des objets connectés. C’est super ces objets connectés, les pacemakers, les pompes à insuline, tout ce qu’on va nous mettre dans le corps, on va vivre 20 ans de plus en bonne santé grâce à ça, objectivement c’est génial ! Il ne faudrait pas que ça nous tue ! Moi je dis ça, je ne dis rien ! On a un vrai sujet. On a un vrai sujet avec ça. Comment faire pour que cette avancée formidable se fasse en bonne intelligence avec ces questions de sécurité ? Le gros problème c’est que ces objets connectés, typiquement, certains vont coûter 10 euros et passer de 10 euros à 11 euros, ça fait 10 % plus cher, donc on commence à réfléchir. Comment fait-on pour faire de la sécurité à ce prix-là ? Très compliqué. Déjà quand on fait un avion c’est compliqué, alors que ça coûte parfois des centaines de millions, quand on fait un truc à 10 euros c’est encore plus complexe, mais je suis sûr qu’on y arrivera. Globalement on a su faire pour les cartes à puce, les choses comme ça, donc on devrait y arriver.

Dernier exemple d’attaque que je ne sais pas classer dans le reste : depuis 2016 on voit apparaître des attaques informatiques qui visent le fonctionnement même de nos démocraties, qui visent les processus électoraux. C’est la campagne américaine qui a lancé ça, si vous vous souvenez campagne Trump/Clinton, qui n’avaient pas forcément besoin de ça, de manière autonome ils arrivaient à générer suffisamment de bruit et de bêtises, mais ça a été, en plus, attaqué par des attaquants qui ont notamment volé des mails, qui les ont publiés, qui les ont parfois agrémentés, qui ont ajouté des bêtises dans ces mails, histoire de discréditer tel ou tel personnage ou tel ou tel candidat ou candidate en l’occurrence, et dans la pire des situations, une situation où on a 50/50. Vous vous souvenez de cette élection, victoire à Trump, majorité de voix à Clinton. Si l’attaquant a réussi à faire passer un pouième de votes d’un côté à l’autre simplement par cette manipulation de l’opinion, eh bien il a changé le résultat de l’élection.
Les manipulations de l’information, la désinformation et tout ça c’est vieux comme le monde, simplement ce que l’on vit aujourd’hui c’est un monde qui a changé et un monde dans lequel il y a beaucoup de nouveaux outils qui sont offerts, permis, développés par les attaquants qui cherchent à manipuler ces opinions. C’est très compliqué parce que ça mêle de l’attaque informatique, typiquement le vol de mails et la diffusion, et également de la diffusion de fausses informations, ces fameuses fake news, de la manipulation médiatique, de la manipulation sur les réseaux sociaux, ce qui, pour moi, n’est pas de la sécurité informatique, ce sont des questions de sécurité mais pas au sens SSI, tels qu’on les traite et, de fait, depuis 2016 on vit avec ça et on doit maintenant lutter contre ça. Et pendant l’élection présidentielle en 2017, deux jours avant le scrutin, le vendredi, je me souviens très bien, je l’avais même prédit en interne, j’avais dit « de toute manière, si on a un problème ce sera le vendredi à quelques heures de l’espèce de shut down, du moment où plus personne n’a plus le droit de communiquer ». Ça n’a pas manqué ! À quelques heures, trois boîtes mails de très proches du candidat Macron se sont fait, comme ça, diffuser. Ce n’est pas de la grosse attaque puisque ce sont des gens qui se sont fait avoir par de l’escroquerie par mail comme on peut tous se faire avoir quand c’est bien fait, objectivement, et avec, potentiellement, le risque d’un impact sur le résultat de l’élection. Je ne pense pas que ça en ait eu parce qu’on n’était pas à 50 /50 non plus, loin de là, mais on va devoir apprendre à vivre avec ça, plus tout ce qui va avec et qui n’est pas mon métier qui est comment est-ce qu’on fait pour lutter contre la désinformation. Je vous laisse réfléchir, c’est un sujet qui est extrêmement complexe, il n’y a pas le vrai et le faux, c’est une évidence.

Autre problème que je voulais partager avec vous, dans le domaine militaire, dont je viens, en général vous savez qui vous attaque. Il y a toujours des opérations secrètes, des commandos ultra secrets, des hommes grenouilles qui ont des combinaisons dont ils ont coupé les étiquettes pour qu’on ne puisse pas retrouver le pays d’origine – quand ils pensent à couper les étiquettes, mais en général ils savent le faire, quand ils oublient ça fait du bruit pendant très longtemps – mais, pour la plupart des attaques, on sait qui attaque.
Dans le domaine informatique, c’est l’inverse. En général, vous ne savez pas qui vous attaque. Ce n’est pas tout à fait vrai. En général, vous ne savez pas prouver qui vous attaque, il n’y a pas d’évidence sur qui vous attaque. Vous finissez par vous douter de qui c’est et puis vous pouvez avoir une sorte de faisceau de présomptions. Mais face à un juge, un juge au sens large, quelqu’un qui a autorité et qui doit décider si oui ou non la personne que vous accusez est bien la bonne, eh bien c’est pratiquement impossible aujourd’hui d’apporter des preuves dès que vous avez à faire à des attaquants de haut niveau. Des fois on a des indices, des indices intéressants. Qu’est-ce qu’on a comme indices ? On peut aller voir dans le code des malwares, dans le code des virus, des fois on trouve des commentaires, les attaquants ne sont pas très prudents sur les notions de compilation, ils laissent les commentaires et tout ça, et les commentaires peuvent être en anglais, ils peuvent être en cyrillique, ils peuvent être dans un anglais un peu francisant et on peut, comme ça, deviner un petit peu d’où ça vient, ça a pu exister. Donc on peut se dire, comme ça, quand on trouve des commentaires en russe dans un malware que ce sont les Russes qui nous attaquent. On a une preuve. Quand vous y réfléchissez, mettre des commentaires en russe pour faire porter le chapeau à untel, ce n’est pas très compliqué à faire, c’est même trivial à faire. À tel point d’ailleurs, je ne vais taper que sur la NSA, je vais aussi taper aussi sur la CIA, la CIA s’est fait attaquer par un autre groupe qui s’appelle Vault 75, elle s’est fait piquer des outils, tout ça a été diffusé, et parmi les outils de la CIA il y avait un, alors c’était vraiment avec une belle IHM [interface homme-machine] parce que probablement que les opérateurs de la CIA sont moins geeks que ceux de la NSA, une belle IHM où, en fait, vous avez un menu déroulant et vous dites à qui vous voulez faire porter le chapeau ! Et ça intègre automatiquement les preuves pour faire porter le chapeau. C’est génial et en même temps très logique.
Donc ça c’est une preuve, mais une preuve moyenne. Qu’est-ce qu’on a d’autre ? Eh bien les fuseaux horaires de compilation, les heures d’activité et tout ça, c'est une preuve aussi. Quand vous êtes un peu motivé, déjà vous pouvez changer la date de vos ordinateurs et même, quand vous êtes hyper-motivé, vous vous levez la nuit pour faire porter le chapeau, ce n’est pas hors de portée dès que vous avez un peu de moyens, donc c’est pareil, c’est un peu louche.
Dans les trucs rigolos qu’on a parfois à faire, il y a certains attaquants qu’on suit, il y a une relation presque intime qui s’installe avec eux, on suit leur activité. On sait que certains sont très actifs pour les ponts du mois de mai. À des moments où ils savent que les défenses peuvent peut-être se relâcher. Il y en a d’autres dont on sait qu’à Noël, pendant 15 jours, ils arrêtent, probablement des fonctionnaires. Donc il y a comme ça des habitudes qui se prennent. Il y a eu certains attaquants où on corrèle les jours d’inactivité avec les jours fériés. Et en fait, quand vous avez une corrélation parfaite, ça désigne un pays ; quand vous prenez tous les jours fériés c’est une signature d’un pays.

Là encore ce sont quand même très souvent de bons indices, mais ce ne sont pas des preuves, bien évidemment.
Je pourrais prendre plein d’exemples comme ça, on a plein d’exemples. Et puis, très souvent, c’est à qui le crime profite ? C’est le vieil adage des films policiers. Donc quand vous mettez tout ça bout à bout, il nous arrive régulièrement de dire à nos autorités « c’est machin », mais on n’a pas de preuves.

Certains commencent, les Américains commencent, ils ont deux/trois cas intéressants de la justice américaine où là, pour le coup, ils ont identifié qui a fait les attaques, ils ont les noms, ils ont les photos, en uniforme en général. Ça commence à se préciser, mais dans 99,9 % des cas on ne sait pas qui c’est, on ne peut pas le prouver.
Donc cette question de l’attribution est absolument majeure. J’insiste un peu dessus parce que tous nos mécanismes de défense, de coopération, d’entraide mutuelle, que ce soit au sein de l’Europe, au sein de l’Otan et ainsi de suite, s’appuient sur l’hypothèse parfois même totalement intuitive, même pas écrite, qu’on sait qui attaque. Quand vous ne pouvez pas dire qui attaque, comment est-ce que vous faites contre-attaquer ? Comment est-ce que vous faites pour porter assistance à une victime et ainsi de suite ? C’est extrêmement compliqué. Donc on est dans une situation de sécurité qui est totalement inédite de ce point de vue-là et qui remet en cause énormément de mécanismes pourtant bien rodés et c’est bien dommage, ce qui fait que beaucoup s’attachent à cette idée d’attribution parce que, sans ça, on n’y arrive pas.
Mon approche est plus de dire qu’on n’est pas près d’arriver à l’attribution. Il faut se concentrer sur de la protection, de la prévention, il faut empêcher les attaques, il faut rendre le coût des attaques beaucoup plus élevé pour les attaquants et ne pas s’imaginer qu’on va les détecter pour ensuite contre-attaquer, ce n’est pas le bon schéma. Mais quand je dis, notamment à des militaires, que la meilleure défense, c’est la défense, ce n’est pas glorieux, mais c’est pourtant ce qu’il y a de plus efficace.

Quelques mots sur des sujets qui ont déjà été abordés mais qui me tiennent à cœur.
D’abord la cryptographie, pas uniquement parce que j’en ai fait il y a très longtemps, au siècle dernier, mais parce que ça reste la base de beaucoup de choses. D’ailleurs la cryptographie c’est un bon exemple. On a mis 2000 ans à faire passer l’avantage de l’attaque à la défense. Notamment, il a fallu 2000 ans pour se rendre compte que le secret des méthodes ce n’était pas la bonne manière de protéger les méthodes de chiffrement et ce n’est pas intuitif.
Si on a mis 2000 ans pour en arriver là c’est que ce n’était probablement pas intuitif. Et puis tout s’est un peu inversé dans les années 70, à la fois au niveau de tout ce qui est chiffrement symétrique,ce qui a été dit rapidement, et également avec l’invention de toutes les méthodes de cryptographie asymétriques qui, pour le coup, ont levé des verrous technologiques absolument phénoménaux et ça a permis tous les usages que l’on peut connaître. Cette prise de conscience a vraiment été un tournant, ça a été énoncé par Kerckhoffs6 à la fin du 19e, mais finalement réellement appliqué que très tard du fait que la méthode devait être publique et seules les clefs devaient être secrètes. C’est la base de beaucoup de choses.

Aujourd’hui on peut dire qu’on sait faire de la cryptographie, de bons mécanismes cryptographiques, il faut être très modeste dans ce domaine-là. Il y a parfois des mauvaises surprises, mais globalement, au niveau théorique, c’est incroyable le progrès qui a pu être fait. Là où ça se gâte sérieusement c’est évidemment au niveau des implémentations. Alors là c’est vraiment un sport extrême. C’est hyper-compliqué de bien implémenter. Plusieurs exemples éloquents ont été cités, moi j’aime bien, typiquement, le coup des messages d’erreur ; quand on développe bien c’est ce qu’on apprend à faire, de bons messages d’erreur et tout ça. Le simple fait, finalement dans certains protocoles crypto, d’envoyer des messages d’erreur quand il y a un truc louche, rien que ça finalement quand c’est bien fait, quand l’attaquant fait bien son truc, ça permet de tout casser, c’est assez incroyable !
La génération d’aléas, c’est un truc incroyablement compliqué, en fait, alors qu’on pourrait se dire qu’il n’y a pas plus simple. Non, c’est incroyablement compliqué.

Il y a certains systèmes cryptographiques dont on sait prouver la sécurité avec quelques bonnes hypothèses bien identifiées, eh bien dès que l’aléa – et en cryptographie asymétrique il y a beaucoup d’aléas, c’est vraiment une des bases fondamentales – peut être un tout petit peu biaisé, on peut tout ruiner. C’est vraiment passionnant ! Pour le coup, pour les jeunes qui veulent faire des sciences marrantes dans ce domaine-là ça reste un champ d’exploration absolument incroyable.
Et puis il y a l’implémentation, que ce soit logicielle ou matérielle ou un peu entre les deux. C’est passionnant de regarder ce qui s’est fait notamment en termes de sécurité des cartes à puce. Ça nous renvoie aux canaux auxiliaires avec des cas plus simples probablement que ce qui se passe sur les microprocesseurs, mais quand on a découvert, vers 1996, quelque chose comme ça, qu’une carte à puce, ce n’est pas l’attaque la plus simple à faire mais qui est la plus triviale finalement en termes de canal de fuite : simplement en regardant le temps de calcul vous pouvez en déduire des secrets, ça a été une vraie surprise, effectivement. Et puis une carte à puce c’est un bon exemple parce que ce sont des concentrés de technologie absolument incroyables, mais, en même temps, c’est très vulnérable. Vous lui apportez tout. Vous lui apportez en général l’horloge, l’énergie, et puis ce n’est pas très intelligent une carte à puce.
Donc les attaques qui sont sorties à cette époque-là et qui ne font que se raffiner depuis, que ce soit par exemple en regardant la consommation de courant, eh bien les cartes à puce n’étaient pas prévues pour résister à ça ; simplement sur le silo on lisait les clefs, les secrets qui étaient contenus dans la carte. Ça aussi ça a été un choc y compris pour des mécanismes de crypto très robustes qui sont encore très robustes aujourd’hui, ce sont deux choses très différentes.

L’autre type d’attaque qui a été également totalement révolutionnaire, ce qu’on appelle les attaques par faute, ce n’est pas tout à fait pareil, ce n’est pas de l’information qui fuit, mais on provoque des erreurs et on en déduit des secrets. On pourrait se dire que quand on provoque une erreur eh bien on grille la carte ou on obtient un résultat faux et on ne peut pas en tirer grand-chose. Typiquement, avec certains mécanismes de cryptographie asymétrique qui sont, là encore, théoriquement très robustes, vous faites le calcul une première fois normalement, une signature par exemple, et une deuxième fois en provoquant une faute, ce n’est pas protégé, par un calcul mathématique trivial, vous en déduisez la clef. C’est vraiment fascinant.
Comment est-ce qu’on fait pour faire des fautes ? Typiquement, avec un laser, ça marche bien. Il faut bien le doser parce que pas assez fort ça ne fait rien, trop fort ça fait un trou, mais entre les deux on arrive à faire des erreurs, un bit qui s’inverse, un truc comme ça, ça reste de l’électronique. Là on est vraiment dans le titre que j’avais transmis, je parlais de glaive et de bouclier, c’est l’attaque et la défense. L’attaque et la défense jouent l’une contre l’autre depuis maintenant 20 ans et ce n’est pas près de s’arrêter. La défense continue à rajouter des systèmes de protection, de détection d’attaques, des choses comme ça. Les attaquants, au sens éthique du terme, notamment dans les centres d’évaluation avec qui on travaille, eh bien ils perfectionnent leurs méthodes et il y a, comme ça, ce jeu permanent. Raison pour laquelle vous vous êtes peut-être déjà demandé pourquoi votre carte bancaire changeait tous les trois ans, ce n’est pas parce qu’elle est un peu effacée, non, c’est parce que la puce qu’il y a dedans n’est plus du tout la même, simplement. C’est pour ça que c’est important de récupérer tous les trois ans votre carte pour vous en donner une nouvelle qui repart sur un composant de qualité. Quand on travaille sur des composants d’il y a dix ans, sincèrement ça tient dix secondes. Voilà ! C’est tout ça qu’il faut être capable… Là c’est de l’astuce, quelque part, dans ce jeu du chat et de la souris, pour rester à un bon niveau de sécurité.

Sur la crypto, deux choses encore. D’abord on entend beaucoup de bêtises sur le quantique, grand classique ! Grand classique quand on veut tout mélanger parce que les termes s’y prêtent.
D’abord il y a l’ordinateur quantique, on s’est longtemps demandé s’il allait exister un jour, on n’a plus trop de doutes ! Après, quand est-ce qu’il sera en vente à la Fnac ? Je ne sais pas, ça ne sera sans doute pas avant un certain temps. Le gros problème ou le gros avantage, suivant qui on est, c’est que ça permet sûrement de faire des tas de choses, mais ça permet essentiellement de casser la cryptographie asymétrique, en tout cas les algorithmes les plus répandus. D’ailleurs, ce n’est pas par hasard si ceux qui ont mis des sommes colossales là-dessus, tournent autour de la NSA et ils ne s’en cachent pas. Ça c’est un premier problème.
Si la crypto asymétrique devient vulnérable, ça veut dire qu’un jour il faudra en changer. Donc il nous faut des mécanismes de cryptographie qui résistent, ce qu’on appelle les mécanismes post-quantiques, la crypto post-quantique.
Là c’est tout un champ, un nouveau champ depuis maintenant plusieurs années, qui est ouvert pour de la recherche, de la recherche qui aura des applications parce que ce sont les standards de demain qu’il faut définir pour faire des algorithmes asymétriques comme ceux de tout à l’heure qui échangeaient, RSA7 et compagnie, mais qui résistent à ces ordinateurs quantiques. Il y a des pistes mais ce n’est pas si simple à faire.
Et puis, pour tout compliquer, il y a la cryptographie quantique qui existe aussi. C’est là où en général tout se mélange. Crypto quantique ça veut dire qu’on n’utilise plus du tout les mécanismes dont on a parlé là, mais on utilise les propriétés de transmission optique pour faire en sorte – ce qui est le contraire de l’hypothèse habituelle en crypto – que le canal ne soit pas interceptable, qu’on ne puisse pas intercepter les messages. Évidemment, quand on intercepte, ça a véritablement un impact sur la transmission, donc on peut, comme ça, monter des choses sécurisées.
Donc crypto quantique, ordinateur quantique, crypto post-quantique, ce sont trois choses qui n’ont rien à voir, fondamentalement, mais quand vous mélangez tout ça et que vous en faites un concept bizarre pour parler dans les salons le soir, eh bien ça fait ce truc quantique qui énerve tous les cryptos en général. Mais c’est un vrai sujet en soi, un vrai sujet qui est bien pris en compte.

Dernière chose sur la crypto. Aujourd’hui la crypto moderne a un défaut majeur c’est qu’elle est trop forte. Ça ce n’est pas un sujet facile. On sait très bien que tous les services de renseignement, d’enquête et tout ça, déjà il y a très longtemps avaient identifié le fait que la crypto ce serait dangereux, c’est exactement ce qu’on disait.
La France a fait partie des pays qui ont résisté le plus longtemps, je ne sais pas si c’est glorieux ou pas, mais à un moment on s’est rendu compte, c’était au milieu des années 90, qu’il y avait trois pays qui interdisaient encore la cryptographie pour un usage grand public, ça devait être l’Iran, la Corée du Nord et la France. Ça politiquement, c’est… Et puis ce n’est pas très réaliste.
Donc 1998, des travaux ont été menés pour la libéralisation de la crypto et je vous passe les détails, 2004, dans la loi il a été écrit, je cite mot à mot « l’utilisation des moyens de cryptologie est libre ». C’est fort de mettre ça dans un texte de loi ! Le fait qu’il y ait eu une nécessité d’écrire ça dans un texte de loi, ça veut dire quelque chose. Donc aujourd’hui l’usage de la cryptographie en France est libre. Ça pose un problème : il y a des cas où les services de renseignement, les services d’enquête, aimeraient bien pouvoir casser cette crypto.
Donc on est dans un débat qui est compliqué, objectivement, et pas qu’en France, loin de là, qui est comment est-ce qu’on fait pour permettre à tous les gentils d’utiliser la crypto mais pas aux méchants ? Posé comme ça, vous vous doutez bien que la réponse n’est pas facile. Toutes les grandes idées, genre il faut ré-interdire la crypto, ce n’est même pas la peine d’y penser, bien évidemment, parce que les conséquences négatives seraient sans commune mesure avec le gain et, de toute manière, ce serait très illusoire parce qu’avec ce genre d’idées on embête les gentils et on n’embête pas les méchants, donc c’est exactement l’inverse de ce qu’on veut faire.
La deuxième idée : on va affaiblir la crypto pour la mettre juste au niveau, c’est-à-dire que les grands services vont être capables de la casser, mais pas les autres. Ça ne marche pas non plus parce que le temps joue contre nous, à supposer que les gentils aient plus de puissance de calcul que les méchants, ce qui est déjà une très grosse supposition en soi !
Et après, il y a des solutions beaucoup plus techniques de portes dérobées, de trap doors, de choses comme ça, on va bidouiller un peu la crypto pour faire en sorte qu’elle soit accessible par ceux qui ont les bons passe-partout. Les passe-partout ça ne marche pas. Si vous avez une valise un peu haut de gamme, il y a sûrement une clef TSA [Transportation Security Administration] qui permet de l’ouvrir, les clefs TSA s’achètent pour quelques euros sur Internet, ces passe-partout de l’administration américaine, là on est dans le monde physique, ce n’est pas de la crypto ; ça ne marche pas dans le monde physique, c’est archi-démontré. Dans le monde numérique ça ne marche pas non plus, objectivement, parce que très vite les méchants ont également les clefs même si c’est bien fait cette affaire-là.
On m’accuse souvent de défendre la crypto et de ne pas apporter de solution à ce problème d’accès légitime, notamment par les services d’enquête, mais de fait c’est un sujet qui est extrêmement complexe et tant qu’on n’a pas de solution, et je ne suis pas sûr qu’on en trouve un jour, eh bien il faut admettre que le bénéfice de ces mécanismes est largement supérieur aux problématiques qu’ils peuvent nous poser également en termes de sécurité.
C’est un sujet récurrent, de toute manière, je pense qu’on ne s’en sortira pas, il faudra continuer à expliquer ces choses-là en continu.

On passe très vite. Il faut que j’avance.

Je vais vous dire deux mots d’open source et d’OS open source pour faire de la pub. Dans ma fonction je ne suis pas à dire « les logiciels propriétaires ce n’est pas bien, les logiciels open source c’est bien », parce qu’en termes de sécurité, malheureusement, c’est beaucoup plus complexe que ça. Il y a de l’open source très mal fichue, effectivement ! Et le fait de se dire que ce n’est pas grave, vu que c’est open source les gens le verront, ce n’est pas vrai, on le sait très bien. II y a des bugs très graves qui ont été trouvés dans certains systèmes open source, où, en fait, quand on va avoir le code source il y a un commentaire à côté qui dit « ça c’est tout pourri, je n’ai pas le temps de corriger, mais il faudra quand même y penser ». Le bug est expliqué ! Il dit « ce n’est pas bon parce que ci, parce que ça, et je n’ai pas eu le temps de corriger » et ça dure après pendant des années parce que, évidemment, personne ne relit l’intégralité du code source avant de compiler et il faut être encore capable de le faire. Je passe là-dessus.
À l’inverse, les systèmes propriétaires, évidemment, ce n’est pas forcément super sain de base, on pense tous un peu aux mêmes, ils ont fait des gros progrès mais ça reste un petit peu dérangeant cette obscurité des codes.
De fait, je ne veux pas dire qu’il y a les gentils et les méchants, c’est beaucoup plus complexe que ça.
Je disais que je voulais faire de la pub parce qu’on a récemment rendu open source une version de Linux [GNU/Linux] sur laquelle on a travaillé pendant très longtemps, je vois Olivier là-haut qui doit connaître ça par cœur. En fait, c’est un Linux qui est durci. Durci ça veut dire qu’on a commencé par enlever tout ce qui ne servait à rien et c’est déjà bien en termes de sécurité d’enlever tout ce qui ne sert à rien et c’est beaucoup. Parfois on est surpris. On a fait récemment le travail sur un logiciel open source de messagerie instantanée, dans un projet interministériel, la plus-value de l’ANSSI a été de virer 80 % du code source. À la fin on ne se rend pas compte du fait qu’on a enlevé des trucs, mais même, les gens viennent dire « ça marche vachement mieux ! » Ça fait réfléchir les informaticiens, ça rend modeste ça aussi et surtout, ça fait autant de surface d’attaque en moins, fondamentalement. Tout le code mort et tout ça, évidemment il faut l’enlever.
Tout ça pour dire qu’on a fait une version durcie de Linux [GNU/Linux] qui permet également d’avoir différentes cages, différentes instanciations, avec cette idée de schéma assez simple où, pour faire de la sécurité, le diable c’est Internet. Pour faire de la sécurité de bon niveau en étant connecté à Internet c’est super dur, même quand vous êtes bon, donc ça complique un peu les choses, évidemment. Par contre, avoir des machines sur lesquelles on arrive, en virtualisant, à avoir une instance connectée à Internet avec le risque, évidemment, qu’elle soit compromise, et une autre instance qui, elle, n’est pas connectée à Internet tout en ayant quand même les deux sur une même machine parce que deux machines c’est quand même pénible et c’est quand même bien, de temps en temps, de pouvoir passer de l‘information de l’une à l’autre, ça c’est quand même un modèle qui nous semble particulièrement intéressant et prometteur.
Donc voilà, ça s’appelle CLIP OS8, je vous encourage à aller voir, c’est open source. On a fait de l’open source sécrète pendant dix ans maintenant c’est de l’open source qui est réellement open source, je trouve que ça fait partie des beaux projets qui font partie des produits de l’Agence.

Deux derniers points.
Un, on n’a pas cité l’intelligence artificielle, très étonnant quand même dans un exposé ! Au-delà de l’effet buzz et tout ça, l’intelligence artificielle transforme nos métiers, évidemment, comme pour tout le monde. En interne les gars me disent : « Ne dis pas intelligence artificielle, il faut dire machine learning, c’est quand même beaucoup plus sérieux ! » Bon ! Machine learning. Pour les défenseurs comme nous c’est une vraie révolution parce qu’un de nos métiers c’est le métier de la détection. On voit passer des tas de flux colossaux et tout çà, et là-dedans, dans cette immense botte de foin, il faut trouver la micro-aiguille qui trahit peut-être une attaque. Ça vraiment, si ce n’est pas un champ d’application formidable pour l’intelligence artificielle, je ne comprends plus rien !
À l’inverse, pour les attaquants, on voit certains attaquants qui aujourd’hui, manifestement, ne sont plus des gens derrière leur clavier. Ces mécanismes d’automatisation plutôt malins sont en train de se mettre en œuvre.
Et puis il y a un troisième sujet qui est beaucoup plus fin sur l’intelligence artificielle, je ne sais pas trop où le classer d’ailleurs, c’est la sécurité même de ces IA. Je ne sais pas trop comment on fait ça, c’est un sujet qui dépasse complètement nos compétences. Nous, ce qu’on apporte, c’est quelque part notre esprit un peu pervers : à quel point on peut empoisonner un mécanisme d’apprentissage ? On trouve déjà plein de trucs sur Internet, les trucs de reconnaissance d’image. C’est très facile de faire passer un pingouin pour une autruche ou n’importe quoi pour n’importe quoi. Alors que, pour un humain, non ! Et est-ce qu’il est possible avec un nombre limité de données empoisonnées d’aller modifier, de manière importante, structurellement, un apprentissage ? La réponse est oui, clairement. Donc comment est-ce qu’on fait pour éviter ça ? C’est un vrai sujet extrêmement complexe.

Le sujet du vote est un sujet que j’aime beaucoup, parce que c’est très compliqué de faire du vote électronique, pour plein de raisons. Ça revient un peu sur les règles de sécurité. La situation en France, aujourd’hui : les machines à voter existent, peut-être que quand vous votez vous votez sur une machine électronique, informatique, je ne sais pas comment dire. En fait, cette autorisation existe depuis assez longtemps, c’est prévu par la loi depuis longtemps. Il y a eu un moratoire, en 2007 ou 2008, qui a dit « on commence à avoir un doute sur la sécurité de ces machines, donc ceux qui n’en ont pas acheté n’ont plus le droit d’en acheter et ceux qui en ont acheté vous n’avez plus le droit d’y toucher, mais vous avez le droit de les utiliser ! » Cherchez l’erreur dans cette phrase ! C’était en 2008 ; on est en 2019, ces machines sont les mêmes qu’en 2008, voire beaucoup plus anciennes ; vous n’avez pas le droit d’y toucher donc elles ne sont pas mises à jour. C’est exceptionnel, ces machines ! Donc on a un vrai souci avec ça, qui va être compliqué et qui se repose à chaque élection.
Et puis il y a le vote des Français de l’Étranger, le vote par Internet, là c’est vraiment très compliqué. Il y a un peu un paradoxe. En 2012 on l’a fait pour les Français de l’Étranger malgré les trous qu’il y avait. En 2017 on ne l’a pas fait pour les législatives, c’est uniquement pour les législatives aujourd’hui, pour limiter la catastrophe s’il y a un problème. En 2017, je suis allé voir les autorités en disant « ce n’est pas raisonnable, on ne peut y aller ». Ça n’a pas été la folle ambiance, évidemment ! Parce que évidement, d’un point politique, vis-à-vis des électeurs, on a l’impression d’une régression et c’est très dur à comprendre.

J’ai été trop long, il y a plein de choses que je voulais vous dire, je ne vous les dirais pas !

Organisateur : Il me semble qu’à sept heures il y a la séance de questions, tu peux y aller.

Guillaume Poupard : Deux mots alors, quand même.
Une fois qu’on a bien peur et qu’on a pris conscience que tout cela est très complexe, j’ai dit que je voulais vous convaincre qu’on sait se protéger.
C’est un peu frustrant. Au-delà des guides, vous allez sur ssi.gouv.fr, il y a plein de guides9. Ça va des trucs absolument élémentaires plutôt pour les particuliers à des trucs de haut niveau. Donc il y a ce que j’appelle la bibliothèque rose, la bibliothèque verte et tout ça, en souvenir des livres de nos enfances.

Il y a un truc assez facile d’accès qui est déjà assez sérieux qu’on a fait avec la CPME, l’organisation des petites et moyennes entreprises, qui dit « eh bien voilà, vous n’êtes pas des experts en cybersécurité, vous ne le serez jamais, voilà 12 règles à appliquer ! » Je vous encourage à aller voir ce guideGuide des bonnes pratiques de l'informatique - 12 règles essentielles pour sécuriser vos équipements numériques]. Déjà quand on fait ça, on évite tout le tout venant en termes d’attaque, ce n’est déjà pas mal ! Si c’est la NSA qui en a après vous, ça ne suffit pas, c’est une évidence, mais ce n’est déjà pas mal.
Là-dedans on va retrouver attention à vos mots de passe, classique, attention à tout ce qui est connexion USB, à ces choses-là, attention à la séparation des usages. Historiquement, à l’ANSSI, on se bat contre le BYOD, le bring your own device, cette idée assez étonnante que les employés, les collaborateurs, vont venir avec leur PC, avec leur téléphone et ainsi de suite, persos, et vont travailler avec dans le cadre du réseau de l’entreprise. Pour ceux qui veulent faire de la sécurité en entreprise, bon courage ! Chacun arrive avec son bazar et il faut que l’ensemble soit sécurisé. Pareil, je pense qu’on doit pouvoir démontrer que ce n’est pas faisable cette affaire-là. Et pourtant c’est une idée un peu naïve parce qu’on se dit que ça va faire faire des économies et, en plus, les utilisateurs sont ravis. Ils sont ravis ! Moi j’aimerais bien pouvoir utiliser mon téléphone perso pour travailler parce que je n’aurais qu’un téléphone, je n’aurais pas à jongler et tout. Simplement on ne sait pas faire et ce n’est pas raisonnable.
Attention à ce que vous téléchargez, attention aux mails et tout.
Tout ça ce ne sont pas des trucs absolus, c’est-à-dire que si vous le faites scrupuleusement vous ne serez pas pour autant 100% sécurisés, mais c’est tout cela qui crée une hygiène informatique, qu’il va bien finir par falloir apprendre notamment à l’école parce que c’est avant tout à l’école qu’on apprend les choses. Eh bien il va falloir apprendre ces choses-là parce que sans cette hygiène, sans cette base élémentaire, vous pouvez faire des choses extrêmement compliquées derrière, vous pouvez faire de la très belle science, vous pouvez faire de la très belle technique, de la technique très chère, s’il n’y a pas l’hygiène de base, comme on a mis des siècles à l’apprendre en médecine, eh bien tout ça est ruiné. Vous pouvez les meilleurs vaccins au monde et tout ça, ceux qui ne lavent jamais les mains et ainsi de suite, ils seront malades quand même.

Deuxième page de pub, on a fait une plateforme qui s’appelle cybermalveillance.gouv.fr10. Si vous avez un problème, si vous voulez vous renseigner, si vous avez quelqu’un qui a un problème, vous l’envoyez là-dessus. Ce n’est pas l’ANSSI, c’est quelque chose qui est à l’extérieur, c’est quelque chose qui est fait plutôt pour les PME et pour les individus. Vous allez trouver de la sensibilisation, donc cybermalveillance.gouv.fr, des messages très simples qui expliquent les bases, donc cette hygiène dont je parlais.
Également en cas de problème, le jour où vous avez un problème chez vous, ça peut vous arriver, évidemment il faut aller porter plainte mais ce n’est pas le policier ou le gendarme qui va réparer votre PC, ce n’est pas son métier. Pareil, quand vous êtes cambriolé ils vont venir faire les constats, ils vont venir prendre la plainte, mais ils ne vont pas réparer la porte, ce n’est pas leur métier. Cette plateforme vous met en relation avec des prestataires informatiques, plutôt locaux, qui ont signé une charte et qui peuvent vous aider. Ce n’est pas toujours magique, mais si vous avez des sauvegardes, ils peuvent faire de leur mieux, quelque part, donc on peut trouver de l’aide pratique, comme ça. Ça n’existait pas jusque-là. C’est une manière d’apporter un peu de concret positif pour les gens qui sont victimes et puis c’est également une manière, j’aimerais qu’il y ait plus de personnes qui y aillent, de faire de la prévention en amont parce qu’on est vraiment dans des domaines où, une fois encore, la meilleure défense c’est la défense.

Et puis je disais que la formation c’est vraiment un sujet absolument majeur. La formation à tous les niveaux. Former des experts en cybersécurité, évidemment c’est notre obsession parce qu’on veut les embaucher après. On arrive à embaucher des gens mais, de fait, il y a un décalage entre l’offre et la demande en termes de quantité parce que tout ça est allé très vite, objectivement. Quand on est pessimiste on peut même se dire que la situation s’aggrave puisqu’il y a de plus en plus d’experts, mais comme la demande croît encore plus vite, le gap continue à s’étendre, c’est un vrai problème.

Je pense à quelque chose d’absolument essentiel, c’est d’enfin apprendre systématiquement la sécurité aux gens qui font de l’informatique ou du numérique, parce qu’aujourd’hui on est dans une situation où il y a ceux qui développent, parfois n’importe comment, souvent n’importe comment, et ceux qui essayent de patcher tout ça et c’est totalement inefficace comme système. Quand on veut faire commercial on parle de security by design, la sécurité ça se pense dès le part, ça se construit dès le départ.
Quand on fait un beau système non-sécurisé et qu’on dit ce n’est pas grave je vais passer un avenant à tel industriel spécialisé et il va nous sécuriser ça par-dessus, ça ne marche pas. On a essayé dans tous les sens, on a payé des sommes folles pour les systèmes les plus critiques, ça ne marche pas. Il faut vraiment que ce soit ceux qui développent qui fassent en même temps de la sécurité et ça tout au long du cycle de vie, donc les mises à jour et tout ça et ça pose des tas de questions.

Dernier point. Le 12 novembre dernier, dans le cadre du Forum de Paris sur la Paix, c’était les commémorations du 11 novembre, vous vous souvenez peut-être de ça, l’Internet Governance Forum en parallèle, une semaine numérique, quelque chose de politiquement assez fort. Le président a fait l’appel de Paris pour la paix et la stabilité dans le cyberespace, un truc comme ça, un truc tout bizarre en apparence. Le fait de dire « écoutez, ce cyberespace, cet espace numérique, ce bien commun, il est devenu hyper-critique et on se doit collectivement, avec tous les gens de bonne volonté, de le sécuriser, de le stabiliser et de faire en sorte que ce soit un espace de paix ». Les esprits critiques disent : « C’est bon, les naïfs sont de retour à appeler à la paix à un moment où, au contraire, on a plutôt une course aux armements qui est en train de se produire et des agressions qui sont de plus en plus violentes. »systématiquement
C’est quand même important d’y revenir, parce qu’évidemment, c’est tout sauf naïf. Ça veut dire quoi ? Ça veut dire deux choses.
Ça veut d’abord dire qu’il faut dès maintenant préparer le jour d’après. On va avoir des attaques qu’on n’a pas encore vues, des attaques qui seront inacceptables, intolérables, je ne sais pas lesquelles, mais on peut malheureusement faire plein d’hypothèses et plein de scénarios. Quand on se sera mis d’accord, pour le coup c’est à l’échelle mondiale tout ça, il ne se suffit pas de se mettre d’accord entre quelques pays like-minded, qui pensent pareil, il y en a d'ailleurspeu qui pensent pareil. Non ! Il faut vraiment tous ensemble se mettre d’accord pour dire non, il y a des règles, il y a une sorte de droit international qui s’applique à l’espace numérique parce qu’autrement c’est le Far-West. C’est une expression que je prends souvent, c’est un Far-West avec des cow-boys armés qui se baladent, qui tirent dans tous les sens, qui ont même un bandeau sur les yeux pour faire le problème d’attribution, tout le monde tire sur tout le monde et à la fin il n’y a plus que des victimes. Ça c‘est la situation vers laquelle on va et qui est totalement inacceptable.
Donc savoir dire non. Cet espace numérique, ce bien commun, on doit le sécuriser, c’est notre intérêt commun tout simplement. Ce n’est pas du tout des belles idées ni de la philanthropie, c’est juste de l’intérêt général. Et pour ça, pour le sécuriser, eh bien chacun est responsable : les États sont responsables, les utilisateurs sont responsables, les fournisseurs sont responsables.
Quand on tire la ficelle, il y a plein de choses qui viennent. Ça veut dire par exemple, pour ceux qui développent des systèmes avec de l’informatique à l’intérieur, eh bien dorénavant il faut avoir des règles élémentaires qui, énoncées comme ça, paraissent triviales, mais qui ne sont pas appliquées aujourd’hui. Par exemple la sécurité elle est par défaut, la sécurité ce n’est pas une option qu’on paye en plus. Les mises à jour c’est par défaut. Il est hors de question de payer pour avoir des mises à jour, notamment de sécurité. Des mises à jour fonctionnelles et tout ça, pourquoi pas ?, qui sont le modèle économique, mais pour la sécurité non, c’est quelque chose qui doit faire partie de l’achat initial.
Et puis la sécurité doit être suivie tout le long du cycle de vie. Il est hors de question de faire un produit, comme la machine de tout à l’heure, et dire après ce n’est plus mon problème. Non, c’est le problème du fournisseur tout au long du cycle de vie. Et ça, ça a l’air évident de le dire, mais ce n’est pas trivial.
Et à l’inverse, c’est une responsabilité qui doit rester limitée. Quelqu’un aujourd’hui qui se fait attaquer parce qu’il a Windows XP, je suis désolé mais moi je pense que ce n’est pas la faute à Microsoft. On peut critiquer Microsoft sur pas mal d’aspects, mais ils ont prévenu, re-prévenu pendant des années « attention, à telle date on arrêtera le support et ainsi de suite » et il y avait largement le temps de migrer. Donc il y a une responsabilité qui n’est évidemment pas que sur toujours le même.

Et puis il y a un sujet qui est très compliqué c’est celui des vulnérabilités. Nous on est convaincus qu’il faut empêcher une sorte de commerce des vulnérabilités informatiques de se développer. C’est facile à dire, c’est très compliqué à faire parce que, évidemment, il y a un marché, il y a des offrants et des demandeurs, donc le marché est là. Ce marché est un marché qui est dématérialisé donc qui est très difficile à contrôler. Quand vous voulez contrôler de l’armement, si vous voyez passer un char, normalement ça se remarque. Une vulnérabilité informatique c’est en pièce jointe avec le mail et puis si c’est bien chiffré, même avec des moyens que nos démocraties n’ont pas, heureusement, de toute manière ça passe inaperçu. Il faut empêcher ce commerce de vulnérabilités, ça fait également partie de ce qu’on pense être très important pour stabiliser le cyberespace et éviter que ça devienne un Far-West.

Et puis, dernière chose, il faut vraiment préserver l’usage de la violence, de la violence légitime, comme j’appelle ça, et interdire le fait d’utiliser, même pour de bonnes raisons, des moyens offensifs. Je laisse de côté l’audit, l’open test et tout ça, ça peut s’encadrer, mais notamment une notion absolument abominable qui circule dans certain milieux c’est la notion de hack-back : je suis attaqué, je me défends, je contre-attaque, donc là c’est n’importe quoi parce qu’on est à peu près sûr de contre-attaquer sur quelqu’un est lui-même une victime. Quand on explique ça en France les gens disent « oui, c’est évident ». Aux États-Unis, autre perception de l’autodéfense et de l’usage des armes, eh bien non, il y a plein de personnes qui pensent que, de toute manière, l’État ne sera jamais capable de les défendre, que c’est à eux de se défendre, donc ils vont s’armer et dès qu’ils vont être attaqués, ils vont contre-attaquer. Ça c’est le début du grand n’importe quoi si on part là-dedans.

Je m’arrête là. Je vous dis juste la devise de l’ANSSI pour cette année, c’est tous connectés, tous impliqués, tous responsables.
Tous connectés oui, dans notre vie personnelle, dans notre vie professionnelle.
Tous impliqués oui, parce qu’on est de plus en plus des acteurs de ces mondes numériques, clairement, parfois très acteurs évidemment.
Et tous responsables parce qu’on a un rôle à jouer pour que cette sécurité soit garante du fait que c’est le bon côté du numérique qui va se développer et pas tous ces trucs atroces que je vous ai dits pendant une heure.

Je vous remercie beaucoup.

[Applaudissements]

23 July 2020

de_crevoisier.png LE-ROUTEUR-WIFI.COM

5G : A quand les premiers téléphones et PC 5G ?

Le 23 July 2020 à 08:43:10

Tout le monde en parle depuis quelques temps, et encore plus maintenant, la COVID-19 ayant entrainé de folles rumeurs. Certains arguent que cela n’est pas nécessaire, d’autres l’attendent avec une grande impatience. La 5G se rapproche, parfois, elle est même déjà présente, mais a-t-on déjà accès à du matériel compatible ? C’est quoi la 5G ? Y a-t-il déjà des forfaits dédiés ?

Il faut bien le dire, ces questions méritent une réponse tant cette nouvelle technologie est encore floue dans l’esprit de pas mal de monde. Entre incompréhension, amalgame, intox et informations tronquées, il est parfois un peu compliqué de s’y retrouver.

Je vais vous faire un petit récap de cette nouvelle norme, puis nous verrons le matériel déjà disponible, et enfin nous parlerons brièvement des forfaits.

C’est quoi la 5G ?

Ça, vous devez le savoir, la 5G est, comme son nom l’indique, la cinquième génération du standard concernant le réseau mobile accessible via la téléphonie. Même si la succession des « G », des générations, laisse penser à des mises à jour, il n’en est rien avec la 5G.

La 5G est une technologie, dite « de rupture », c’est-à-dire qu’elle introduit de nouveaux usages de par les nouvelles fonctionnalités offertes. En d’autres termes, la 5G n’est pas réellement la remplaçante de la 4G, mais plutôt une nouvelle norme, qui fonctionnera, au moins pendant un temps, en parallèle de la 4G.

Mais alors, en quoi la 5G est-elle si novatrice ?

Pour simplifier, la 5G apporte d’énormes innovations sur trois points principaux. Ces points, sont un peu les caractéristiques générales qu’il faut retenir.

Le débit

Les débits de la 5G n’ont rien de communs avec ceux de la 4G, même si les chiffres que nous pourrons atteindre au début seront moins impressionnants que ceux que nous aurons à moyen termes.

A termes donc, la 5G devrait pouvoir vous fournir un débit de 1 Gb/s, si vous ne savez pas trop à quoi cela correspond, c’est le même débit que la fibre optique. C’est 10 fois plus rapide que le débit maximum théorique offert en VDSL 2+, la plus efficace des technologies XDSL.

Imageons ces débits pour que vous puissiez avoir une idée plus précise de ce dont on parle.

En 4G, sous l’antenne, vous pouvez espérer un débit maximum théorique de 150 mbps. C’est-à-dire mégabits par seconde. 1 Mégaoctet par seconde, c’est 8 mégabits par seconde (en France, on parle plutôt en Mo/s). Donc, en 4G on peut prétendre à un débit maximum de 150/8=18.75 Mo/s.

C’est déjà beaucoup, par exemple, si vous pouviez atteindre ce débit, vous pourriez télécharger un fichier de 700 Mo (comme un film par exemple) en 37 secondes.

En 5G, on passe à 1Gbit seconde (toujours si obtient le meilleur débit possible), ce qui correspond à 1024 mbps. Refaisons donc le même petit calcul, 1024/8=128 Mo/s.

Là, en reprenant le même exemple, on télécharge le même fichier de 700 Mo en environ 5 secondes…

Bien entendu, vous n’obtiendrez pas ces débits, comme vous n’obtenez pas aujourd’hui les débits maximums de la 4G. Mais, vous pouvez tout de même vous attendre (sous réserve de couverture) à des débits, multipliés environ par 6 ou 7, c’est énorme.

C’est probablement quand on parle de ces débits que les détracteurs de la 5G opposent que ceux de la 4G sont déjà très suffisant. Et pour être tout à fait honnête, ce n’est pas tout à fait faux. Avec une bonne réception 4G, le débit est déjà suffisant pour tous les usages que nous connaissons. Mais la 5G ce n’est pas qu’une amélioration du débit, et d’ailleurs, c’est cette 5G qui va entrainer de nouveaux usages. De nouveaux usages qui ne seraient pas possibles en 4G.

La latence

Et oui, ce n’est pas qu’une amélioration impressionnante du débit, mais aussi une incroyable réduction de la croyance.

Un speedtest réalisé en 5G aux USA

La latence, c’est le temps que va mettre une donnée que vous émettez, pour atteindre sa cible, le serveur de réception. Les joueurs connaissent bien cette notion, le fameux ping. Pour faire simple, plus la latence est faible, plus le réseau est réactif, plus les choses se déroulent en temps réel.

Aujourd’hui, avec la 4G, la latence est d’environ 15 ms (milliseconde). En 5G, cette latence devrait descendre à 1 ms. C’est une notion particulièrement importante pour les futurs usages que permettra cette nouvelle technologie.

La densité de connexion

Enfin, le dernier point important est la densité de connexion permise par la 5G. C’est simple, en 5G c’est, au minimum, 10 fois plus d’appareils qui pourront être connectés dans une même zone.

Bien entendu, nous n’allons pas tous nous offrir 10 smartphones, mais l’intérêt n’est pas uniquement de connecter les usagers physiques. Cette augmentation de la densité de connexion va permettre de pouvoir fortement développer l’IOT, le fameux internet des objets. En gros, il va pouvoir y avoir beaucoup plus d’objets connectés qu’aujourd’hui.

C’est quoi ces nouveaux usages ?

On en parle depuis le début, mais alors quels sont ces nouveaux usages permis par la 5G ? En quoi ça va révolutionner, ou non notre vie ?

Je vous le dis tout de suite, je ne vais pas trop entrer dans les détails, pour la simple raison que nous avons déjà un article dédié sur notre site.

En gros, la conjonction des 3 points, débit, latence, densité de connexion, vont permettre d’avoir plus de matériels connectés, quasiment en temps réel, et avec un fort débit.

Cela permet, par exemple, qu’une voiture soit totalement autonome, puisqu’elle pourra communiquer, en direct (ou presque) avec les serveurs hébergeant l’API la contrôlant. Elle pourra prendre des décisions en temps réel, plus rapidement qu’un humain.

Mais on peut également imaginer (d’ailleurs ça a déjà été testé), qu’un chirurgien puisse, grâce à cette très faible latence, opérer un patient situé à l’autre bout du monde.

La forte densité de connexion va permettre de rendre intelligent certains mobiliers urbains, un panneau d’entrée en agglomération pourra vous informer des prochains événements qui se dérouleront dans la commune, ou un ralentisseur pour régler automatiquement la vitesse de votre voiture, et le débattement de vos suspensions pour que son franchissement soit le plus agréable possible.

Des exemples, il y en a des centaines, mais il est certains que cela devrait beaucoup changer le quotidien que nous connaissons. On peut être pour, ou non.

Si la 5G changera l’utilisation qu’ont les particuliers d’Internet, c’est finalement dans le monde professionnel que cette technologie est la plus attendue.

Mais du coup y a déjà des appareils compatibles ?

Vous pourriez me dire que pour le moment, le réseau 5G n’existe pas en France, et vous auriez raison. Mis à part quelques zones de test, très limitées, il n’y a pas encore de 5G en France. Elle devait (doit ?) être installée courant 2020. Mais la pandémie a fatalement ralenti ce développement, comme le reste des activités économiques. De plus, cette semaine, devant la pression de certains groupes, le gouvernement a commandé une étude sur l’impact sanitaire que pourrait avoir la 5G, ce qui risque également de ralentir son installation sur le territoire.

Mais, cette 5G elle va finir par arriver, et si ce n’est pas cette année, ce sera en 2021. Et surtout, la 5G existe déjà ailleurs, dans d’autres pays, comme en Asie ou au Etats-Unis. Et où se trouve le gros des fabricants de matériel informatique ou téléphonique ?

Donc, oui, du matériel compatible 5G existe déjà, et vous pouvez déjà vous en procurer si vous avez peur d’être en retard.

Des téléphones

Bon, je ne vais pas vous faire une liste exhaustive car vous êtes des grandes personnes et que vous pouvez aller faire un tour sur Amazon pour vous renseigner, mais, pour faire un rapide topo.

La gamme Samsung Galaxy S20 est compatible, tout comme le S10 5G du même fabricant. OnePlus, avec ses derniers modèles, 8 et 8 Pro est également de la partie. Le petit nouveau (du moins en popularité) Realme possède également un terminal compatible, le X50 Pro 5G. Enfin, Xiaomi, possède également ce qu’il vous faut, son haut de gamme, le Mi10 est compatible 5G.

D’autres marques ont des téléphones compatibles, comme Huawei, Oppo ou même LG.

Il y a un moyen de simplifier cette liste… comme les smartphones utilisent des SOC (system on a chip), le modem est intégré au processeur. Généralement donc, un téléphone muni d’un SOC Snapdragon récent (865, 765 690…) sera compatible.

Du côté de chez Mediateck, les Dimensity 820 et 1000 sont également compatibles.

Des ordinateurs

Des PC portables compatibles 5G il y en a aussi déjà sur le marché. Le fait de posséder un modem dans son PC portable peut vous sembler bizarre, mais c’est finalement assez répandu sur les modèles utilisés dans le monde professionnel.

On peut citer le HP Elitebook x360, ou bien encore le Lenovo Limitless. Mais comme pour le monde des téléphones, cela va très fortement se développer dans les prochains mois. Et là où ce n’est pas possible avec un smartphone, nous devrions également voir débarquer des bundle 5G qui devraient permettre de rendre tous les PC portables compatibles avec la 5G sous réserve de bien vouloir y adjoindre cet appareil.

Tout cela c’est très bien, mais il n’y a pas de réseau 5G en France, et de toute façon, il n’y a pas non plus de forfaits compatibles.

Les forfaits 5G

Alors, si des opérateurs étrangers ont déjà à leur catalogue des forfaits 5G, ce n’est pas le cas, et à raison, en France. Bien que…

Cette semaine (article écrit le 24 juin 2020) Bouygues Telecom a fait entrer à son catalogue 3 forfaits estampillés « 5G ready », c’est-à-dire des forfaits qui vous permettront de profiter de la 5G quand elle existera dans l’hexagone… quand, on ne sait pas.

Ce sont donc des forfaits totalement inutiles, mais qui possèdes tout de même un petit intérêt… celui de voir le positionnement tarifaire qu’à retenu Bouygues. Car ça aussi c’est une grande question, la 5G nous coutera-t-elle plus cher ?

Bon, comme toujours, c’est très difficile de s’y retrouver avec les 3 forfaits annoncés. Car, d’une part il y a une réduction la première année, ensuite, vous pouvez avoir une réduction supplémentaire si vous êtes client également pour votre internet fixe… les jours de pleine lune c’est également un peu moins cher, bref c’est complexe.

Mais, si on prend par exemple le premier forfait, celui avec 60 Go de data en 5G (il existe également un forfait avec 90 Go et un avec 120 Go), au prix normal, c’est-à-dire passé la première année, et sans réduction particulière, on arrive à 41.99€ par mois.

Pour vous donner une idée des prix actuels, un forfait B&You de 60 Go vaut en ce moment 12€ par mois. Certes, en promotion.

On le comprend aisément, ces forfaits 5G chez Bouygues sont plus un effet d’annonce, « Nous sommes les premiers… » mais ne servent à rien, puisqu’il n’y a pas de réseau compatible pour le moment. De plus, il est certain que dès que les antennes seront implantées, les prix baisseront grâce à la concurrence.

S’il n’y a pas d’intérêt à avoir un forfait 5G, y en a-t-il un à acheter un smartphone 5G ? Soyons clair, la 5G ne doit pas, être pour le moment un déclencheur d’achat, sauf si vous gardez vos smartphones assez longtemps. Mais vous allez avoir de moins en moins le choix surtout si vous avez l’habitude d’acheter des téléphones haut de gamme ou moyenne gamme.

La 5G dépend du SOC, comme nous l’avons dit, les marques pour les modèles moyens et haut de gamme, équipe les matériels avec des gros SOC, donc vous avez la 5G…

Si vous ne changez que très rarement de téléphone, alors peut-être vaut-il mieux prendre un modèle 5G si vous avez besoin de changer de smartphone, ainsi, vous pourrez bénéficier de la technologie quand elle sera en place.

Conclusion

La 5G promet de belles choses, mais probablement également des moins sympas… il y a une forte probabilité que nous soyons encore plus trackés qu’aujourd’hui, notamment avec la multiplication des objets connectés dans nos rues.

Mais la 5G n’est pas encore là, et ne devrait pas arriver tout de suite pour tout le monde, il y a donc encore un peu le temps de voir venir. Cependant, mondialisation oblige, les constructeurs de matériels ne vont pas créer un modèle pour chaque pays, et la norme sur le haut de gamme est donc de proposer du matériel compatible 5G. Si c’est pour vous le temps de changer de téléphone, pourquoi pas alors opter pour l’un de ceux qui sont déjà fonctionnels sur ce nouveau réseau 5G, vous serez déjà prêt à tester dès que tout sera en place. Par contre je vous déconseille fortement de vous procurer maintenant un forfait 5G, vous payerez plus cher le même service que vous avez déjà, dans l’attente d’une technologie dont personne ne sait avec exactitude quand elle sera disponible.

The post 5G : A quand les premiers téléphones et PC 5G ? appeared first on Routeur-Wifi.

april.png Nouvelles April

Comment fonctionnent les câbles sous-marins de l'Internet ? Jean-Luc Vuillemin

Le 23 July 2020 à 06:04:34


Câbles, Jan Messersmith

Titre : Comment fonctionnent les câbles sous-marins de l'Internet ?
Intervenant·e·s : Jean-Luc Vuillemin - François Sorel
Lieu : Émission De quoi j'me mail ?, 01net
Date : juin 2020
Durée : 30 min 38
Visionner la vidéo
Licence de la transcription : Verbatim
Illustration : Câbles, Our First Marine Salvage Job, Jan Messersmith - Licence Creative Commons Attribution-Noncommercial-Share Alike 3.0 United States.
NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Description

Cette semaine François Sorel reçoit Jean-Luc Vuillemin, directeur réseaux et services internationaux chez Orange. Comment a "tenu" le réseau durant le confinement ? Comment fonctionne l'Internet mondial ? Quels rôles ont les câbles sous-marins dans le maillage du réseau alors que la demande des débits explose ? À quoi ressemblera l'Internet du futur ? Toutes les réponses avec notre invité, spécialiste du sujet.

Transcription

Voix off : RMC, 01tv, François Sorel, De quoi j'me mail ?

François Sorel : Le retour de De quoi j'me mail ? sur RMC le dimanche matin, vous le savez, et sur 01tv à la fois sur le Web, mais aussi sur la chaîne sur les box qui vous attend, sur les box SFR, Orange, Freebox aussi, puis sur satellite depuis quelque temps sur FRANSAT canal 81.
Merci en tout cas de nous voir ou de nous écouter. On va parler télécoms. On en parlait la semaine dernière, j´avais le plaisir de recevoir le directeur général de SFR. Cette fois-ci on va passer du côté de chez Orange avec un tout autre sujet. Vous savez qu’aujourd’hui si on a du haut débit, du très haut débit, si on peut discuter avec les US quasiment sans avoir de latence, si on peut parler avec l’Asie, si on peut avoir de belles qualités vidéo un peu partout dans le monde, si votre Netflix marche parfaitement, c’est évidemment grâce à la fibre optique, à la 4G, si vous avez un bon ADSL, mais ça marche aussi parce qu’il y a d’énormes capacités, d’énormes tuyaux, en quelque sorte, qui traversent les océans.
C´est un sujet passionnant qu’on va évoquer maintenant avec mon invité. Je suis très heureux d’accueillir Jean-Luc Vuillemin. Bonjour.

Jean-Luc Vuillemin : Bonjour François.

François Sorel : Vous êtes le directeur réseaux et services internationaux chez Orange

Jean-Luc Vuillemin : C’est tout à fait ça.

François Sorel : Vous allez nous expliquer votre métier qui, je disais, est fascinant. Votre métier, en autres, c’est de faire circuler des bateaux un peu partout dans le monde, en tout cas sur les océans pour, on va dire, augmenter la capacité réseau qui est exponentielle évidemment, les gens demandent de plus en plus de haut débit, les entreprises aussi. Votre job c’est, en quelque sorte ça, pas que ça, on va en parler.
Peut-être, avant de rentrer dans le vif du sujet, que vous nous expliquiez un petit peu quel est votre quotidien, j’aimerais qu’on revienne sur cette période un peu étonnante qu’on a vécue de confinement. J’ai le plaisir de vous suivre sur Twitter où vous donnez pas mal d’informations. Est-ce que le confinement a été une période assez délicate pour Orange ou, en tout en cas, une période qui fait réfléchir encore aujourd’hui l’entreprise ?

Jean-Luc Vuillemin : Définitivement, François.
D’abord les réseaux, et surtout les réseaux internationaux, sont un indicateur avancé de l'activité économique du pays et de l’activité de nos concitoyens tout court.
Ce qu’on a vu en particulier pendant cette période de confinement, c’est une baisse très importante du trafic sur les réseaux dédiés aux entreprises puisqu’elles étaient fermées et que leurs salariés n’étaient plus sur place et une bascule extrêmement importante de ce trafic vers les réseaux grand public, notamment vers l’Internet, et aussi vers la voix. On a tendance à oublier la voix, mais je peux vous dire que pendant la période du confinement le trafic de la voix a été multiplié par 2, même par 3 sur certaines destinations.

François Sorel : La bonne vieille voix avec le téléphone.

Jean-Luc Vuillemin : La bonne vieille voix avec le téléphone, eh bien oui parce qu’il y a des moments où c’est le moyen de communication privilégié.

François Sorel : Le plus robuste parfois.

Jean-Luc Vuillemin : Le plus facile à utiliser, donc on a vu un accroissement du trafic tout à fait important.
Dans notre rôle d’opérateur international, il a fallu adapter les capacités des réseaux pour faire en sorte que partout dans le monde, en toutes circonstances, les personnes ou les sites internet auxquels les Français souhaitaient accéder dans le cadre de leur confinement soient disponibles dans les meilleures conditions possibles de service.

François Sorel : Donc une bascule du gros du réseau vers les gens en fait, dans les appartements, dans les maisons ; une baisse importante dans les entreprises. Est-ce que ça change la manière dont est architecturé le réseau pour vous ?

Jean-Luc Vuillemin : En fait, ce qui s’est passé, c’est qu’on a dû réaliser ce qu’on appelle des upgrades, c’est-à-dire des augmentations de capacité dans des délais extrêmement courts. On a augmenté à peu près sur les réseaux internationaux — les réseaux internationaux ce sont de très, très gros tuyaux, on parle vraiment de plusieurs millions de fois de ce que vous avez sur votre domicile, sur la fibre optique de votre domicile — on a quand même dû augmenter les capacités sur des facteurs qui ont été de 30, 40, 50 et, je l’ai dit, sur la voix de plus de 200 %.

François Sorel : Là vous parlez du trafic on va dire intercontinental ?

Jean-Luc Vuillemin : Oui, du trafic international, c’est-à-dire tout ce qui sort du territoire métropolitain.
Pour faire ces opérations, il a fallu mettre en œuvre un certain nombre de moyens. Parfois c’est compliqué. Par exemple quand il faut augmenter la capacité sur les réseaux sur l’Atlantique, il faut réaliser une interconnexion sur ces câbles sous-marins, il faut réaliser une interconnexion à New-York, à Londres, il faut avoir des gens sur place, il faut coordonner tout ça.

François Sorel : Et pendant le confinement ce n’est pas forcément facile.

Jean-Luc Vuillemin : Pendant le confinement c’est extrêmement difficile.
Et puis c’est vrai que dans les réseaux, depuis quelques années, il y a ce qu’on appelle la virtualisation des fonctions réseaux, qui est la capacité à mettre en œuvre un certain nombre de choses dans les réseaux de façon logicielle et non plus de façon matérielle, hardware. Le confinement nous a permis de réaliser à quel point ce mode de « softwarisation » des réseaux, donc de transfert des réseaux vers des fonctions logicielles, était puissant, souple et réactif. On va être amenés, c’est un peu technique et je m’en excuse, à revoir très profondément l’architecture de nos réseaux de manière à faire en sorte que le maximum d’intelligence et de capacité soit porté par des logiciels qui sont assez facilement modifiables à distance et non plus par du matériel qui, lui, est très difficilement modifiable, upgradable ou, en tout cas, sur lequel les interventions restent toujours très complexes.

François Sorel : En gros, au lieu d’obliger quelqu’un à se déplacer pour appuyer sur des boutons, rajouter des trucs, des appareils, je ne sais pas quoi, quelqu’un à Paris, dans son cockpit, clique sur une icône et c’est réglé. C’est ça ? Je schématise.

Jean-Luc Vuillemin : On augmente la capacité à distance. C’est ça. L’idée c’est bien ça, absolument.

François Sorel : C’est dingue !
En préparant tout à l’heure cette interview vous me disiez que finalement c’est surtout le réseau fixe en France — là je parle sur le territoire national, j’imagine que c’était comme ça un petit peu partout dans le monde — qui a vu sa capacité augmenter et pas forcément la 4G.

Jean-Luc Vuillemin : Oui, bien évidemment, parce que les gens étaient chez et quand vous êtes chez vous, assez naturellement vous activez le wifi. Donc tout le trafic qui était normalement en mobilité sur les téléphones dans la rue, etc., et qui, dans la rue, utilisait majoritairement les réseaux mobiles, essentiellement aujourd’hui les réseaux 4G, a basculé sur le wifi, donc sur les réseaux fixes. Ce qui explique d’ailleurs aussi pourquoi tout le monde dit que les réseaux mobiles n’ont pas eu de problèmes parce que, finalement, ils étaient très peu chargés, en moyenne moins 40 % de trafic sur les réseaux mobiles. Par contre, ce trafic s’est reporté sur les réseaux fixes et c’est là eu qu’on a vu arriver cette vague de trafic dont je parlais précédemment.

François Sorel : Je pense que vous avez raison dans les grandes villes où la plupart des gens ont une très bonne connexion internet, mais on peut imaginer que des personnes qui ont un ADSL un peu fatigué et qui captent de la 4G étaient plutôt connectées en 4G.

Jean-Luc Vuillemin : Bien sûr. Mais quand on regarde au niveau statistique, la majeure partie des gens sont plutôt dans le cas de figure qu’on a évoqué précédemment.

François Sorel : Il y a eu des moments qui étaient compliqués durant ce confinement ? On a frôlé, par exemple, je ne sais pas, des incidents importants de réseau en France ? Comme des capacités EDF, parfois EDF dit, en plein mois d’août, il y a surconsommation, même l’hiver, on a failli frôler des problèmes.

Jean-Luc Vuillemin : On n’a pas frôlé d’incident important. Il faut savoir que les réseaux télécoms sont toujours dimensionnés sur une notion de pic. On dimensionne les réseaux pour l’usage maximum qu’on constate tout au long de l’année.

François Sorel : Même si ça n’est plus un pic, même si ça, devient on va dire, la normalité.

Jean-Luc Vuillemin : Même si ça n’est plus un pic parce qu’on ne sait jamais quand est-ce qu'un pic va arriver. Il y a des pics assez évidents, par exemple les retransmissions télé, les grands évènements sportifs, ça ce sont des pics. Il y a des pics plus souterrains mais qui ont une vague assez incroyable, c’est par exemple lesupgrades des jeux. Quand un grand jeu comme Fortnite met à jour ou lance une nouvelle version, tous les joueurs du monde entier téléchargent au même moment et vous avez une vague de trafic absolument incroyable qui déferle sur les réseaux.

François Sorel : En plus, ce sont plusieurs gigas ces mises à jour, ce n’est pas anodin.

Jean-Luc Vuillemin : Plusieurs gigas, absolument, c’est incroyablement simultané et ça dure quelques heures.

François Sorel : Ça vous le voyez dans votre cockpit ?

Jean-Luc Vuillemin : Bien sûr qu’on le voit. On le voit et on essaye même de l’anticiper parce que ce sont des flux assez majeurs.
On a toujours une marge de sécurité qui est, en gros, de l’ordre de 40 à 50 % de notre capacité.
Par contre, c’est vrai que quand le confinement a été prononcé, on a vu le trafic qui a monté très rapidement et on a été amenés à se poser la question : qu’est-ce qui va se passer si ça continue comme ça ? Et effectivement ça a continué comme ça ! Donc on a lancé des programmes d’augmentation de capacité de façon préventive extrêmement importants. Je peux vous dire que pendant les quatre premières semaines on n’a pas beaucoup dormi dans les équipes des réseaux internationaux et partout dans le monde, car on est vraiment partout dans le monde, on n’a pas beaucoup dormi, on a regardé comment évoluaient les réseaux et on a ajouté les capacités.

François Sorel : Le risque c’est quoi ?

Jean-Luc Vuillemin : Le risque c’est la saturation.

François Sorel : Si ça sature, qu’est ce qui se passe ? Ça va aller moins vite ou est-ce que, par exemple, le réseau peut s’effondrer ?

Jean-Luc Vuillemin : C’est une bonne question, ça dépend de l’importance de la saturation. Les gens ont le sentiment que l’Internet mondial est un réseau extrêmement stable, extrêmement solide. Je peux vous dire, pour y travailler chaque jour, que ce n’est pas vrai du tout. C’est un réseau qui est extrêmement sensible, les réseaux de protocole IP sont des réseaux relativement fragiles dans leur fonctionnement et quand une ressource devient très majoritairement inaccessible, eh bien il se crée des mécanismes de ré-essais, de re-tentatives automatiques. Il peut arriver ce qu’on appelle des tempêtes de signalisation, c‘est-à-dire que les éléments du réseau se mettent à communiquer « est-ce que tu arrives à joindre – non je n’y arrive pas, je réessaye, je réessaye », et on peut avoir à un moment où la signalisation du réseau devient tellement importante par rapport au trafic qu’on paralyse le réseau.
Donc il y a des tas de questions, il y a des tas d’études, il y a un certain nombre d’universités et de chercheurs qui travaillent sur la question qui est à partir de quel moment de saturation du réseau, on pourra effectivement avoir des atteintes majeures non seulement, évidemment, sur le lien considéré mais de façon systémique sur des plaques plus ou moins importantes.

François Sorel : Pour terminer avec le confinement, après on passera à autre chose, mais tout ce qui est, on va dire, streaming, SVOD, Netflix, Disney+, dont le lancement a été décalé d’ailleurs, myCANAL, Amazon Prime Vidéo.

Jean-Luc Vuillemin : Pas de beaucoup, 15 jours.

François Sorel : Oui mais quand même, 15 jours, et ça été une décision gouvernementale, parce que je ne suis pas sûr que Disney+ vous aurait écouté s’il n’y avait pas eu cette obligation de la part du gouvernement. Aujourd’hui, le tuyau de la vidéo en France, ça représente combien de l’Internet global ?

Jean-Luc Vuillemin : À peu près 60 %. À peu près 60 % du trafic international est représenté par de la vidéo.

François Sorel : Ce n’est pas bizarre quand on dit ça comme ça ? On n’a pas trouvé une autre solution, finalement, que de prendre 60 % de ce gros tuyau pour, en plus, transférer des fichiers, enfin de la vidéo dont on sait à peu près, j’imagine qu’on arrive à prédire que par exemple la nouvelle série La casa de papel va peut-être représenter 5 % de ces 60 ; YouTube, je ne sais pas, il y a une vidéo hyper-demandée qui va arriver, vous voyez ce que je veux dire ?

Jean-Luc Vuillemin : La vraie question pour moi ce n’est pas tellement la nature du trafic, que ce soit de la voix de la donnée ou de l’image, c’est sa localisation. Ce qui fait en fait l’importance des réseaux internationaux c’est que les gens accèdent à des contenus qui sont loin de chez eux.

François Sorel : Plus c’est loin, plus c’est grave ?

Jean-Luc Vuillemin : Plus c’est loin, plus ça prend de ressources sur l’Internet mondial. Il y a des cas où ça peut se comprendre, il y a des cas où on peut se poser plus de questions. Il y a des pays qui ont des politiques extrêmement strictes en matière de localisation des données et qui font en sorte que les données qui sont utilisées par leurs internautes soient localisées sur leur territoire. C’est le cas de la Chine depuis très longtemps, c’est le cas de la Russie.

François Sorel : Ce n’est pas que pour des raisons techniques, des raisons politiques aussi.

Jean-Luc Vuillemin : Pas que pour des raisons techniques, il y a aussi des raisons politiques ou des raisons de sécurité qu’on peut très bien comprendre, de souveraineté nationale aussi.

François Sorel : Politiques on comprend, on est d’accord ou pas, mais voila, ça c’est autre chose !

Jean-Luc Vuillemin : La Russie s’est aussi lancée dans des programmes de relocalisation des données sur le territoire russe. Il se trouve qu’en Europe nous sommes extrêmement dépendants de contenus qui sont stockés aux États-Unis.

François Sorel : Encore une industrie, en tout cas une technologie, dans laquelle on est dépendants.

Jean-Luc Vuillemin : On est dépendants, effectivement. On commence à voir un certain nombre d’initiatives pour privilégier de l’hébergement de contenus en France, mais aujourd’hui la très grande majorité de nos contenus reste encore localisée aux États-Unis et c’est ça qui fait qu’en fait ces réseaux internationaux sont tellement importants parce qu’il faut aller chercher les contenus.

Il y a des technologies, notamment ce qu’on appelle les caches, les CDN [Content Delivery Network)], etc., qui visent à rapprocher les contenus des utilisateurs.

François Sorel : Pour qu’on comprenne bien, je suis, je ne sais pas, je dis n’importe quoi à Ajaccio, j’appuie sur mon bouton Netflix pour regarder La casa de papel, le signal vient d’où ? Je ne vais pas vous demander d’où exactement, mais il va être où ? Il va être à Paris, à Marseille, en Corse ? Il sera à Los Angeles ?

Jean-Luc Vuillemin : Ça dépend vraiment des utilisateurs. Netflix est un cas un peu particulier. Les contenus étant français, Netflix a développé une politique de localisation des contenus en France. Par contre quand vous allez par exemple chez Google.

François Sorel : YouTube.

Jean-Luc Vuillemin : Ou YouTube, voilà. Vous êtes à Ajaccio, vous appuyez sur votre bouton, on va localiser le contenu, on va s’apercevoir que le contenu est aux États-Unis, donc vous allez remonter d’Ajaccio à Marseille, vous allez ensuite monter de Marseille à Paris, ça ce sont les réseaux nationaux. À Paris on va récupérer votre trafic. Et mon boulot, le travail en fait de la fonction opérateur de réseau international d’Orange, c’est de faire en sorte que dès que la ressource à laquelle vous voulez accéder n’est plus localisée en France — que ce soit un utilisateur téléphonique, que ce soit un site internet, que ce soit une vidéo — on puisse mettre en œuvre l’ensemble des moyens qui peuvent être des fibres optiques, qui peuvent être des câbles sous-marins, qui peuvent être du satellite, l’ensemble des moyens qui vont vous permettre d’accéder à cette ressource.

François Sorel : On reprend le cas de YouTube. YouTube n’a pas des caches en France avec les vidéos les plus populaires ? On est d’accord, quand même, je ne vais pas forcément aller prendre une vidéo à New-York chez Google.

Jean-Luc Vuillemin : Absolument. Bien sûr que non. Il y a quand même plusieurs éléments. D’abord, même si cette vidéo est populaire et qu’elle a été localisée en France, à un moment il aura bien fallu qu’elle traverse l’Atlantique, donc elle va forcément utiliser ce réseau international.

François Sorel : Mais une fois.

Jean-Luc Vuillemin : Une fois. Les caches ce sont des mécanismes dynamiques, donc tous les contenus ne peuvent être cachés en France. Les caches c’est très efficace, on a un ratio de 1 à 10 à peu près entre la capacité reçue du réseau international et la capacité délivrée localement. Mais quand on parle de plusieurs térabits de trafic, ça reste quand même des volumes considérables.

François Sorel : Votre métier. Vous, on l’a deviné, votre objectif c’est d’assurer la bonne continuité et la capacité réseau entre les continents. Pour ça il faut tirer les câbles sous la mer, il n’y a pas 36 solutions. Vous me disiez tout à l’heure, le premier câble date de quelle époque ?

Jean-Luc Vuillemin : Les câbles sous-marins, c’est une technologie qui est très ancienne. Le premier câble sous-marin date de 1850. Il a été tiré en 1850 entre la France et l’Angleterre.

François Sorel : France Angleterre, donc il traversait la Manche.

Jean-Luc Vuillemin : Il traversait la Manche. C’était quelque chose de très rudimentaire, c’était juste à l’époque un gros tuyau de cuivre avec un isolant. C’est d’ailleurs l’invention de l’isolant qui a permis de créer des câbles sous-marins.

François Sorel : Parce que sans cet isolant tout s’oxyde et ça ne marche pas.

Jean-Luc Vuillemin : C’est exactement ça. D’ailleurs l’invention du câble, la notion même de câble est très légèrement antérieure, elle date de 1834. C’est en 1834 qu’on a créé le premier câble, c’est von Siemens qui a créé le premier câble en 1834.

François Sorel : Siemens, qu’on connaît.

Jean-Luc Vuillemin : Absolument, qui a donné lieu après à des tas d’autres développements.

François Sorel : Merci à lui.

Jean-Luc Vuillemin : 1850, le premier câble sous-marin entre la France et l’Angleterre. Après ça a été très vite. Quand on regarde les cartes, on ne peut être qu’étonné. Dans les années 1900 il y avait déjà plusieurs centaines de câbles sous-marins à travers le monde et la France était d’ailleurs un très gros nœud d’accueil de câbles sous-marins.
Après, c’est une technologie qui a connu des hauts et des bas parce que, comme vous l’avez dit, tout ce qu’on pouvait passer sur les câbles sous-marins c’était du morse. Il y a des technologies qui sont apparues comme la radio. La radio permettait de passer la voix, donc, à un moment, il y a eu une concurrence entre la radio et les câbles sous-marins.

François Sorel : Entre les continents, entre les US et par exemple l’Europe, la radio ça marchait ?

Jean-Luc Vuillemin : Eh bien si ! En 1920, AT&T et les PTT français avaient mis en place un système de communication radio entre l’Angleterre — à côté de Rugby il y avait un émetteur qui faisait 500 mégawatts — et un émetteur situé à Terre-Neuve, et on passait de la radio sur l’Atlantique. Ça existait.

François Sorel : Incroyable, dingue. Il y a quoi. Il y a 5000 kilomètres, quelque chose comme ça ?

Jean-Luc Vuillemin : C’est ça- Il y avait une voie montante et une voie descendante, ce n’était pas donné, c’était de l’ordre de l’équivalent de 120 euros la minute, à peu près, mais ça marchait.

François Sorel : C’était le début du roaming finalement, c’est dingue !

Jean-Luc Vuillemin : En fait les câbles sous-marins ont repris un peu le dessus après la Deuxième Guerre mondiale puisqu’on a inventé le répéteur. Le répéteur c’est l’équipement qui permet de régénérer le signal à intervalles réguliers et qui a fini par permettre de transférer de la voix sur les câbles sous-marins.

François Sorel : Pour qu’on comprenne bien, si je tire un câble entre New-York et Brest, je dis n’importe quoi, si je ne mets pas de répéteur au milieu, il n’y a rien au bout en fait.

Jean-Luc Vuillemin : Le signal s’affaiblit et au bout d’un certain temps, effectivement, votre signal est très faible. C’est d’ailleurs pour ça que dans es premiers câbles sous-marins, avant l’invention du répéteur, on envoyait des tensions extrêmement puissantes pour que le courant arrive de l’autre côté.

François Sorel : Pour que ça arrive de l’autre côté. On est d’accord.

Jean-Luc Vuillemin : Il y a des câbles qui ont brûlé, qui ont cramé, parce qu’on a mis trop de tension.

François Sorel : On testait à l’époque.

Jean-Luc Vuillemin : Exactement.

François Sorel : Aujourd’hui combien y a-t-il de câbles qui circulent dans les océans, sous les océans ?

Jean-Luc Vuillemin : Je dirais à peu près 300-350 câbles, c’est très variable, on en installe tous les jours, on en enlève, on démonte également les plus anciens.
Ce qu’il faut surtout retenir c’est que 99 % du trafic intercontinental, toutes natures confondues, donc bien évidemment de l’Internet, passe par des câbles sous-marins. L’infrastructure de communication mondiale est, de façon extraordinairement majoritaire, dépendante des câbles sous-marins.

François Sorel : Et le pour cent qui reste c’est quoi ? C’est le satellite ?

Jean-Luc Vuillemin : Un tout petit peu de satellite. Le satellite a été un concurrent du câble sous-marin pendant plusieurs années jusqu’à l’invention de la fibre optique. Dès que les câbles sous-marins à fibre optique sont arrivés, ils ont présenté un bilan économique qui était tellement supérieur à celui des satellites qu’on a arrêté d’utiliser les satellites pour transférer massivement de la donnée.
Le satellite continue d’avoir un domaine d’utilisation qui est celui, évidemment, des zones dans lesquelles il n’y a pas de possibilité de câbles sous-marins. Aujourd’hui le satellite est très utilisé pour la mobilité : les navires, les trains, les voitures, les choses qui bougent, évidemment.

François Sorel : Les avions.

Jean-Luc Vuillemin : Les avions, bien évidemment, qui ne peuvent pas avoir de câbles, eh bien on va utiliser le satellite pour cette connectivité.

François Sorel : Un avion avec un câble ça serait compliqué.

Jean-Luc Vuillemin : Après il y a aussi des situations qui sont très propices à l’utilisation du satellite, ce sont toutes les notions d’intervention d’urgence. Par exemple La Croix Rouge, quand elle projette des équipes pour les catastrophes, etc., utilise du satellite. Les armées, également, quand elles font de la projection de force, utilisent le satellite. Il y a une instantanéité de la communication par satellite qui est très supérieure à celle qu’on peut faire avec des câbles.

François Sorel : Alors ces câbles, pour la plupart ce sont les opérateurs télécoms qui décident de les installer. J’imagine qu’il y a des accords entre les télécoms américains, français. Orange est un opérateur, c’est pour ça que vous êtes là aujourd’hui, c'est-à-dire que vous êtes le seul opérateur français à avoir toutes les installations, tout le matériel pour installer ces câbles, vous avez des bateaux, vous avez des chaluts.

Jean-Luc Vuillemin : Non, pas de chaluts, on ne fait pas de pêche, on ne s’est pas encore lancé dans la pêche.

François Sorel : Excusez-moi, je ne suis pas un spécialiste du vocabulaire marin, je suis désolé. Comment on appelle ces bateaux en fait ? Ils ont un nom particulier ?

Jean-Luc Vuillemin : Oui, bien sûr, ce sont des câbliers.

François Sorel : Des câbliers.

Jean-Luc Vuillemin : Des câbliers. En anglais CS, devant vous avez CS, ça veut dire cable ships, et vous avez également un autre type de navires, vous avez des navires de Survey, puisqu’un câble sous-marin est toujours fait sur mesure, un câble sous-marin sur étagère ça n’existe pas. On fabrique un câble sous-marin pour un parcours très précis, donc avant de lancer la fabrication, on va envoyer un navire qui va cartographier le fond, qui va cartographier les différentes routes et c’est sur la base de ces informations qu’on fabriquera ensuite le câble.

François Sorel : Et on pose un câble au fond de l’océan, comme ça.

Jean-Luc Vuillemin : Eh oui, on pose un câble au fond de l’océan, depuis des siècles maintenant.

François Sorel : À quelle profondeur ? Ça peut aller jusqu’à quelle profondeur ?

Jean-Luc Vuillemin : Jusqu’au fond de la mer. De mémoire, la plus grande profondeur marine c’est 11 000 et quelque chose, la fosse des Mariannes c’est 11 400 mètres, je crois. Il nous est arrivé de poser à moins 9000. Quand vous faites par exemple un transpacifique, quand vous arrivez depuis les États-Unis vers le Japon, vous avez une faille qui longe le Japon, elle est à moins 9000 mètres, il nous est arrivé de poser à moins 9000 mètres.

François Sorel : Et vous n’avez pas le choix.

Jean-Luc Vuillemin : Eh bien non ! Il faut poser au fond.

François Sorel : C’est incroyable ! Donc vous savez exactement où va tomber le câble ?

Jean-Luc Vuillemin : Non seulement on sait exactement mais c’est prévu à l’avance, il n’y a aucune latitude. On pose le câble où il est prévu.

François Sorel : Ça demande une cartographie incroyable des fonds sous-marins.

Jean-Luc Vuillemin : C’est ça. C’est pour ça qu’on a des navires spécialisés qui, avant la pose, vont faire un relevé extrêmement précis.

François Sorel : Ils scannent, en quelque sorte, les fonds sous-marins.

Jean-Luc Vuillemin : On sait où le câble est posé à 10 centimètres près.

François Sorel : Jean-Luc Vuillemin , ce qu’il y a aussi d’intéressant, je le disais tout à l’heure, les opérateurs télécoms installent ces câbles, mais maintenant il y a les GAFA, il y a Google, il y a Facebook, il y en a peut-être d’autres, je ne sais pas si Apple a prévu de tirer des câbles.

Jean-Luc Vuillemin : Pas à ma connaissance.

François Sorel : Est-ce qu’il faut s’en réjouir ou est-ce qu’il faut s’en inquiéter ?

Jean-Luc Vuillemin : Je ne sais pas s’il faut s’en réjouir ou s’il faut s’en inquiéter, mais c’est un état de fait. Et c’est un état de fait d’une importance considérable.
Comme vous l’avez dit, tous les GAFA ne sont pas intéressés par les câbles sous-marins. Ceux qui sont vraiment les plus actifs aujourd’hui ce sont Facebook et Google, Amazon un peu moins, Apple, à ma connaissance, n’a pas fait d’incursion dans le domaine des câbles sous-marins, Microsoft a fait quelques petites choses assez limitées.

François Sorel : Ils louent des capacités, on est d’accord.

Jean-Luc Vuillemin : Ils louent des capacités.

François Sorel : J’imagine qu’Amazon, avec son système de cloud, doit louer des capacités monstrueuses.

Jean-Luc Vuillemin : Absolument. Encore une fois, ce n’est pas parce que vous avez un besoin que vous décidez forcément de construire, vous pouvez aussi louer.

François Sorel : Oui, bien sûr. Après c’est une équation économique.

Jean-Luc Vuillemin : C’est une équation économique et stratégique. Quand je m’amuse à faire la somme de tous les investissements que Facebook a annoncés dans les câbles sous-marins, j’atteins un niveau d’investissement sur les trois dernières années qui est quand même de l‘ordre de quatre milliards de dollars. Quatre milliards de dollars ! C’est considérable !

François Sorel : L’objectif de Facebook c’est quoi ? À votre avis c’est d’avoir son propre réseau ? Mondial ?

Jean-Luc Vuillemin : Il y a plusieurs objectifs.
Le premier, évidemment, tous ces GAFA se sont lancés à l’origine dans les câbles sous-marins parce qu’ils avaient des besoins. Ils jugeaient plus efficace économiquement et stratégiquement de bénéficier de leurs propres infrastructures plutôt que d’être dépendants des opérateurs, donc il y a une vraie logique économique et une logique d’utilisation au quotidien. Après, c’est vrai que du coup ça change un peu leurs relations avec les opérateurs, donc je pense que ce n’est pas quelque chose qui leur déplaît non plus.

François Sorel : C’est une menace pour des opérateurs télécoms ou pas ?

Jean-Luc Vuillemin : Encore une fois c’est un état de fait.

François Sorel : Est-ce qu’on peut imaginer demain Facebook ou Google dire « merci Orange, merci beaucoup, bonne journée, j’ai tout ce qu’il me faut, je n’ai plus besoin de vos services », en tout cas, on va dire pour le réseau entre les continents.

Jean-Luc Vuillemin : Je dirais que personne n’est obligé d’utiliser les câbles sous-marins de quelqu’un d’autre. Pourquoi on tire nos propres câbles sous-marins ? C’est pour bénéficier d’une certaine indépendance en la matière. Même si Google et Facebook sont intéressés par les câbles sous-marins, ils ne sont pas intéressés par tous les câbles sous-marins. Par exemple quand on fait un câble entre l’Europe et les États-Unis oui, tout le monde est intéressé. Quand vous faites un câble pour relier la Martinique et la Guyane pour sécuriser le trafic internet de la Guyane, je peux vous assurer que les concurrents ou les amateurs ne se bousculent au portillon. Et s’il n’y avait pas quelqu’un comme Orange pour le faire !

François Sorel : Et là il y a des enjeux de souveraineté. On est d’accord.

Jean-Luc Vuillemin : Absolument. Nous avons posé l’année dernière un nouveau câble justement sur la Guyane pour sécuriser l’accès de la Guyane, nous en avons posé aussi un deuxième sur Mayotte pour les mêmes raisons.

François Sorel : Ça veut dire qu’il n’y a plus problème d’internet haut débit aujourd’hui dans les départements des DOM-TOM.

Jean-Luc Vuillemin : Je ne dirais pas ça, mais je dirais que la connectivité internationale, l’accès à la connectivité internationale pour les DOM – les TOM c’est une autre problématique, les TOM ont gardé la compétence dans les câbles sous-marins, ce sont eux qui gèrent leur truc –, mais pour les départements d’outre-mer, il n’y a pas de problème d’accès à la capacité internationale.

François Sorel : Martinique, Guadeloupe, Réunion.

Jean-Luc Vuillemin : Il n’y a pas de problème de résilience des câbles qui les connectent.

François Sorel : Dernière petite question, ça passe vite.
On voit là encore que certains GAFA se lancent à la conquête de l’espace. Elon Musk fait partir sa fusée pour envoyer des gens on ne sait pas où, peut-être sur Mars dans quelques années, mais on voit qu’il y a aussi toute une bataille de l’Internet par satellite, avec des satellites à basse orbite qui permettraient peut-être de couvrir le monde entier. Qu’est-ce que vous en pensez techniquement ? Est-ce que c’est quelque chose qu’Orange surveille ? Et troisièmement, est-ce que ça peut être l’Internet de demain et faire de l’ombre aux câbles que vous venez de nous présenter ?

Jean-Luc Vuillemin : Ce qu’il faut savoir c’est qu’on continue, dans le monde et chez Orange, à utiliser du satellite, on a encore une activité de satellite. Les avions d’Air France, par exemple, utilisent les réseaux satellites d’Orange et, pour un certain nombre de pays ou de projections, on utilise également des capacités satellites qui sont mises en œuvre par Orange.

François Sorel : Ce sont des satellites à très haute orbite, des géostationnaires.

Jean-Luc Vuillemin : Ce sont principalement des géostationnaires, pas exclusivement parce qu’on commence à utiliser des constellations. Le principe des constellations est quand même relativement simple. Pour qu’un satellite soit stable, il faut le mettre haut, il faut le mettre à plusieurs dizaines de milliers de kilomètres de hauteur, donc ça prend du temps. Si vous descendez ce satellite pour diminuer le délai d’accès à ce satellite.

François Sorel : Ce que tout le monde recherche.

Jean-Luc Vuillemin : Ce que tout le monde recherche, il n’est plus stable, il bouge par rapport à la position d’un observateur posé sur la Terre.

François Sorel : Il bouge pourquoi ? Parce qu’il y a des vents ?

Jean-Luc Vuillemin : Le fait qu’un satellite en très haute altitude, sur ce qu’on appelle une orbite géosynchrone, ne bouge pas, c’est simplement qu’il tourne, mais il tourne à la même vitesse que la Terre.

François Sorel : Donc il est immobile, en fait.

Jean-Luc Vuillemin : Il est immobile. Quand on le rapproche de la Terre, les orbites ne sont plus synchrones et il tourne plus vite que la Terre. Donc pour l’observateur qui est situé sur la surface terrestre, le satellite est à défilement.

François Sorel : C’est pour ça que pour les projets d’Internet par satellites à basse orbite, il faut des centaines voire des milliers de satellites.

Jean-Luc Vuillemin : C’est ça, il faut plusieurs satellites, et on va bouger de satellite en satellite pour assurer la couverture.

François Sorel : Vous y croyez ou pas à cette technologie ?

Jean-Luc Vuillemin : Moi j’y crois. Ça marche. Il existe déjà des constellations, pas de plusieurs milliers de satellites comme veut le faire par exemple SpaceX, mais de plusieurs dizaines, oui, ça existe aujourd’hui et c’est déjà utilisé.

François Sorel : C’est l’avenir de l’Internet dans le monde ou pas à votre avis ?

Jean-Luc Vuillemin : Je pense que c’est un mode d’utilisation qui est intéressant, qui peut répondre à certains besoins. Maintenant, ce sont quand même des systèmes qui posent des problèmes capacitaires. On ne sait pas égaler la capacité d’un câble sous-marin avec ce satellite.

François Sorel : Comme la 4G.

Jean-Luc Vuillemin : Et puis en plus, surtout, il y a une vraie question de modèle économique. Il ne faut pas oublier que la planète est composée à 66 % d’eau. Quand vous dépensez plusieurs centaines de milliards d’euros pour couvrir la Terre, 66 % de votre investissement couvre les poissons.

François Sorel : Oui, c’est ça. Après, ce qui fait rêver, c’est qu’on peut imaginer que 98 % de la planète pourrait être couvert en très haut débit. C’est ça qui est fascinant.

Jean-Luc Vuillemin : Absolument. Tout à fait.

François Sorel : Quand on y pense on se dit qu’avec un petit récepteur on pourrait avoir une connexion équivalente à celle que qu’on a à la maison.

Jean-Luc Vuillemin : Exactement. Et en mobilité. Le gros intérêt c’est surtout la mobilité.

François Sorel : Orange investit là-dedans ? Ce sont des investissements colossaux !

Jean-Luc Vuillemin : Ce sont des investissements colossaux. Nous utilisons déjà les services d’un certain nombre de constellations, encore une fois des constellations à très basse altitude avec plusieurs milliers ou centaines de satellites il n’y en a pas encore aujourd’hui sur le marché. Celle qui était la plus avancée s’appelait OneWeb, elle a fait faillite il n’y a pas longtemps. Je peux vous dire qu’on travaille par exemple avec SpaceX, on fait des tests avec eux, on a une collaboration qui est assez fructueuse.
Après, ces satellites, enfin ces constellations posent aussi des tas d’autres problèmes.

François Sorel : La pollution de l’espace ?

Jean-Luc Vuillemin : Exactement. C’est plusieurs milliers de satellites en orbite basse. Ce sont des satellites très simplifiés, etc., mais effectivement ça pose le problème de la pollution spatiale, de l’accès aux couches hautes, ça pose la question des fréquences qu’utilisent ces satellites. C’est une problématique qui est complexe mais qui est extrêmement intéressante.
Après, ça ne viendra pas en substitution, je ne crois pas à la capacité des satellites à substituer les câbles sous-marins. Ce sera un complément.

François Sorel : Ce sera une porte d’accès. Mais est-ce que ça viendra demain concurrencer la 4G ou la 5G par exemple ? Est-ce que demain avec ça, je suis dehors, je pourrais capter un satellite, rapidement ?

Jean-Luc Vuillemin : En termes de norme, la 5G est le premier réseau qui permet d’utiliser le satellite comme moyen d’accès à un cœur de réseau 5G. Donc vous pouvez faire de la 5G en utilisant un satellite et en ayant un téléphone satellitaire ; c’est prévu, ça peut se faire.

François Sorel : Donc la 5G pourra demain être diffusée par satellite.

Jean-Luc Vuillemin : Elle pourra partir d’un téléphone portable traditionnel et atterrir à l’autre bout sur un lien satellite. Oui, c’est possible en 5G.

François Sorel : C’est passionnant. Notre temps est fini. J’avais encore plein de questions mais ça sera peut-être pour une prochaine fois. C’est passionnant. Merci beaucoup Jean-Luc Vuillemin d’avoir été avec nous.

Jean-Luc Vuillemin : Avec plaisir, merci.

François Sorel : De quoi j’me mail est terminé. Merci de nous avoir suivis. On sera là bien sûr la semaine prochaine. Si vous voulez réagir sur les sujets qu’on vient d’évoquer le hashtag DQJMM sur Twitter vous attend ou bien sur la page de Facebook De quoi j’me mail.
Portez-vous bien, bon week-end et on sera là la semaine prochaine.

22 July 2020

de_crevoisier.png LE-ROUTEUR-WIFI.COM

Test complet du CPL wifi TP-Link TL-PA7010P

Le 22 July 2020 à 12:38:57

Les modules CPL c’est un peu toujours la même chose, deux prises, blanches, lisses, un bouton d’appairage, et roule… on ne peut pas dire que les fabricants se foulent vraiment. En tout cas ce n’est pas sur le design ou sur les fonctionnalités qu’ils se démarquent, mais plutôt sur les performances. Vous me direz, c’est le plus important, et je suis d’accord, mais à performances égales, c’est quand même plus sympa de se tourner vers les produits les plus esthétiques, ou vers ceux qui proposent un petit quelque chose en plus.

Les TP-Link TL-PA7010P ne proposent pas vraiment de grandes nouveautés, mais ils ont la bonne idée de reprendre plusieurs petites choses pratiques et d’offrir un design qui change un peu. De plus, nous le verrons, les performances et le prix des TP-Link TL-PA7010P n’ont pas à rougir face à ce qui se fait ailleurs, alors pourquoi acheter moins bien, quand on peu avoir ces CPL là ?

CPL

Rapide topo pour ceux qui dorment au fond de la classe à côté du radiateur, ou bien alors qui nous lisent pour la première fois, qu’est-ce que le CPL ?

CPL, ça veut dire, Courant Porteur en Ligne, c’est une technologie qui va permettre à deux modules (au moins), de pouvoir communiquer entre eux en utilisant votre ligne électrique comme vecteur de propagation des données. C’est-à-dire, que les modules CPL se servent de votre installation électrique domestique, comme d’un câble ethernet. Ça peut paraitre complexe, mais en réalité, du moins dans le principe de fonctionnement, ça ne l’est pas. On connait la fréquence du courant qui circule dans les fils, autour de 50 Hz en France. Comme cette donnée est connue, rien n’empêche de moduler un peu cette fréquence pour pouvoir y transmettre des infos qui seront réceptionnées par le second module. En gros, ce sont deux pots de yaourt, et la ficelle c’est votre ligne électrique (peut-être que les plus jeunes lecteurs ne comprendront pas cette référence…).

Présentation

Alors déjà je le sais, c’est subjectif, mais je trouve les deux modules qui composent le kit TP-Link TL-PA7010P très jolis. Ça change des blocs uniformes que l’on a d’habitude dans ce genre de solution. Ici, toute la partie supérieure des modules est un évent constitué d’une multitude de petits carrés creusés dans le plastique, ça donne un look appréciable.

La prise mâle des modules servant à les brancher à une prise électrique a aussi une petite particularité, elle possède deux trous pour la fiche de terre. Ça peut être surprenant au premier abord, mais c’est en fait pour pouvoir brancher le module la tête en bas. Et ça peut être très pratique dans certaines situations.

Sur la face avant des blocs CPL TP-Link TL-PA7010P, on retrouve une prise femelle, comme sur d’autres modules mais pas sur tous et c’est vraiment un plus. Ces prises femelles servent à pouvoir brancher un appareil sur les modules, et ainsi à ne pas condamner la prise murale sur laquelle est branché le bloc CPL.

Le port ethernet, à la norme Gigabit, se trouve en haut (ou du coup en bas c’est vous qui voyez), des blocs.

Cette solution CPL est à la norme HomePlug AV2, ce qui est une bonne nouvelle, puisque c’est la dernière en date et que c’est la norme qui offre les meilleures performances. TP-Link donne un débit maximal théorique de 1000 Mbps, bien entendu, c’est une donnée « constructeur » et vous en serez loin.

Performances

Déjà, comment ça s’installe ? Comme les autres modules CPL, vous en mettez un pas trop loin de votre box, dans une prise murale, et vous le reliez à la box via le câble réseau fournit. Ensuite, vous branchez également le second module à une prise murale à l’endroit de votre maison où vous avez besoin d’apporter du réseau. Vous appuyez sur les boutons d’appairage, et c’est fini. J’espère que vous ne vous attendiez pas à quelque chose de trop technique, sinon vous allez être déçu. Ça prend 5 minutes et c’est à la portée de tout le monde.

Et ensuite ? Ensuite, sur le second module, vous branchez ce qui vous fait plaisir, votre PC, une imprimante, une box TV, une TV, un switch (pour brancher encore plus de trucs), votre belle mère (si elle n’est pas encore à la norme Fast Ethernet), bref, vous avez une prise réseau reliée à votre box via votre coutant électrique.

En éloignant pas trop les modules, nous avons relevés des débits de 180 Mbps, ce qui donne du 22.5 mo par seconde, ce qui est un très bon score. En éloignant un peu plus les modules, nous tombons à environ 150 Mbps, ce qui reste satisfaisant pour tous les usages.

Durant nos tests, nous n’avons pas noté de coupure ou de perte d’appairage entre les modules, et les débits sont relativement stables, ce qui, là aussi est une bonne chose.

Ces TP-Link TL-PA7010P sont donc d’excellent petits modules CPL qui vous permettront de vous affranchir des murs et des sols, comme le met en avant le fabricant. Ils devraient vous laisser regarder de la vidéo en 4K sans difficultés. Si sont suffisant pour la totalité des usages modernes que l’on peut avoir d’internet ou de son réseau domestique.

Conclusion

Des modules esthétiques, même si ce n’est pas la première chose qu’on verra en entrant chez vous, facile à mettre en place, stables et offrant un bon débit, c’est ce que proposent les TP-Link TL-PA7010P pour un prix assez contenu (généralement inférieur à 50 €). Ces modules CPL constituent un bon choix pour qui n’a pas de besoins très particuliers mais veut simplement profiter d’internet dans une pièce où le WiFi n’est pas accessible.

Nous recommandons cette solution CPL surtout pour son rapport qualité prix, et les bonnes idées mises en place sur les modules.

The post Test complet du CPL wifi TP-Link TL-PA7010P appeared first on Routeur-Wifi.

21 July 2020

bsibaud.png Benoît SIBAUD

Jeu de stratégie temps réel Widelands Build 21

Le 21 July 2020 à 23:45:03

Widelands est un jeu de stratégie en temps réel (solo ou multijoueur en réseau), fonctionnant sur diverses plates‑formes (dont GNU/Linux, Windows et macOS). Il s’inspirait à l’origine du célèbre jeu Settlers Ⅱ de Blue Byte Software. Il intègre un moteur permettant de gérer plusieurs tribus et différents systèmes d’économie. La sortie de la version Build 20 avait déjà été évoquée sur LinuxFr.org. Il est codé en C++ avec la bibliothèque SDL, et est placé sous licence GPL.

La version Build 21 est disponible depuis le 18 juillet 2020 (après une version RC 1 publiée une semaine plus tôt).

Cette version Build 21 apporte des centaines de corrections et de nouvelles fonctionnalités (pour les plus motivés, un journal des modification complet). L’annonce (traduction plus ou moins libre) mentionne :

  • un ordinateur qui joue mieux ;
  • un mode pacifique et de nouvelles conditions de départ : Plus d’options initiales
  • de nouveaux contrôles pour l’utilisateur concernant la vitesse du jeu, le déplacement sur la carte, la construction, les raccourcis, la navigation rapide, et une interface refaite et plus moderne ;
  • la possibilité de choisir les soldats que l’on envoie au front ;
  • un nouvel algorithme de planification des navires ;
  • des transports pour les marchandises par les voies navigables : Transbordeurs et ponts
  • un meilleur affichage des zones de travail ;
  • des réglages de constructions ;
  • des graphismes de meilleure qualité lors des grossissements : Zoom
  • des améliorations sur les tutoriels et les scénarios ;
  • l’éditeur permet de retailler la carte ;
  • de multiples rééquilibrages entre les tribus ;
  • la réorganisation et le nettoyage du code ;
  • la prise en charge des architectures gros‑boutistes.

La traduction de Widelands est complète en allemand et bas‑allemand, anglais, catalan, danois, espagnol, finnois, français, gaélique écossais et néerlandais, et neuf autres langues sont traduites à plus de deux tiers.

Traductions

Des binaires pour Windows (32 et 64 bits) et macOS (⩾ 10.7, sur Intel 64 bits) sont disponibles (en plus du code source). Il n’y a plus de binaires pour les distributions GNU/Linux « en raison de la faible compatibilité entre les distributions Linux. À la place, nous essayons de rendre la compilation la plus facile possible pour les utilisateurs de Linux. » Un paquet Flatpak est aussi disponible, et il est probable que la version soit de toute façon intégrée par les distributions (pour vérifier le statut actuel : Arch, Debian, Mageia, Ubuntu, etc.).

Et les travaux continuent pour préparer la future v1.0.

Commentaires : voir le flux Atom ouvrir dans le navigateur

20 July 2020

april.png Nouvelles April

Revue de presse de l'April pour la semaine 29 de l'année 2020

Le 20 July 2020 à 20:28:56

Cette revue de presse sur Internet fait partie du travail de veille mené par l’April dans le cadre de son action de défense et de promotion du logiciel libre. Les positions exposées dans les articles sont celles de leurs auteurs et ne rejoignent pas forcément celles de l’April.

[Le Monde.fr] L’accord sur le transfert de données personnelles entre l’UE et les Etats-Unis annulé par la justice européenne

✍ Damien Leloup et Grégor Brandy, le .

[Nextgen-Auto.com] Les pièces de F1 en open-source: révolution ou poudre aux yeux?

✍ A. Combralier, le .

de_crevoisier.png LE-ROUTEUR-WIFI.COM

Ce que je pense du TP-Link TL-WPA8630P : un prix élevé pour de bonnes performances

Le 20 July 2020 à 12:32:27

Tp-Link, on ne va pas se le cacher, c’est un peu les pros du CPL. Certes il y a probablement mieux, certes, il y a probablement moins cher, mais ce sont eux qui sont les plus actifs sur ce segment. TP-Link possède vraiment une très large gamme d’adaptateurs CPL, un peu à tous les prix et avec des performances très différentes. TP-Link, se targue, avec raison, de proposer un éventail technologique important mais tout en permettant un accès au plus grand nombre.

Aujourd’hui, nous allons tester le kit CPL TL-WPA8630P qui est plutôt positionné dans le haut du panier de ce que propose la marque pour ces produits. Il faut dire que la marque a dans son offre des adaptateurs CPL qui coutent une trentaine d’euros, ici, ce sont des produits à environ 90 euros que nous essayons dans cet article.

Comme je ne sais pas si vous tomberez sur ce texte à la suite d’une recherche, ou si vous êtes un fidèle lecteur, je vais faire mon petit rappel technologique rituel. La technologie CPL, pour Courant Porteur en Ligne est un procédé permettant de se servir du réseau électrique existant de votre habitation comme d’un réseau courant faible, c’est-à-dire comme d’un réseau permettant le transport de données. En gros, le CPL se sert des câbles électriques de vos murs comme de câbles ethernet.

C’est particulièrement pratique si vous avez des soucis pour mettre en place un réseau WiFi satisfaisant chez vous. Si vos murs sont trop épais, s’il y a trop d’interférences, ou si votre maison est bien trop grande, le CPL peut être une bonne solution à prix contenu.

Rentrons dans le vif du sujet et penchons-nous sur les TL-WPA8630P.

TP-Link TL-WPA8630P
  • Performances
  • Simplicité
  • Design
  • Prix
4.9

CPL WiFi pour grande surface

Je trouve, que cette solution hybride CPL/WiFi est tout à fait adaptée aux grandes maisons, ou au lieu ou il est difficile de mettre en place un système mesh ou un répéteur WiFi traditionnel.

Présentation

Avant de décrire le produit, disons tout de suite que ces TL-WPA8630P disposent d’une particularité. Non pas que ces adaptateurs soient les seuls à proposer cette spécificité, mais ils sont assez peu nombreux pour que nous le soulignions, il s’agit d’adaptateurs hybrides. C’est-à-dire, qu’ils offrent une connectivité via le CPL, mais que l’un des modules du pack propose en plus une connectivité WiFi. Un point d’accès en WiFi ac.

Comme TP-Link nous en a donné l’habitude, les produits sont évidemment blancs, sobres, sans fioritures, rien ne ressemble plus à des adaptateurs CPL que ces TP-Link TL-WPA8630P. Fonctionnalité WiFi oblige, les deux modules ne sont, contrairement à beaucoup d’autres kits, pas identiques. Ici il y aura donc bien un module, que l’on pourrait appeler « maître » et qui devra être relié à votre box ou à votre routeur, et un module « client », qui lui vous proposera la connectivité CPL et WiFi là où vous en avez besoin.

Les deux blocs, même le « maître » ne sont pas des petits gabarits, ils sont assez volumineux par rapport à ce que fait la concurrence ou à ce que propose la marque avec certains autres modèles. Mais comme je le dis souvent, c’est purement informatique pour ce type de produit, qui sera, à l’usage, invisible une fois branché à une prise murale, souvent derrière un meuble.

Si le module maître propose une prise femelle afin de ne pas monopoliser une prise électrique, ce n’est pas le cas du module client. C’est assez logique, puisque l’électronique du point d’accès WiFi prend la place qui serait nécessaire à cette prise femelle. TP-Link n’a donc pas fait le choix de cumuler les deux fonctions, ce qui aurait conduit cette fois à une taille démesurée.

Si, sur le module maître, vous ne bénéficiez que d’un seul port RJ45, vous en aurez trois sur le module client, ce qui est très généreux puisque généralement il n’y en a qu’un, plus rarement deux, mais je pense que c’est le seul module CPL que j’ai vu avec trois ports. Le fait qu’il n’y ait qu’une seule prise RJ45 sur le module qui sera branché à la box n’est pas du tout un problème, puisque ce port est justement fait pour ça et uniquement pour ça. Vous n’aurez rien besoin de brancher sur ce module CPL, si vous avez envie de branchez quelque chose aussi près de votre box, alors branchez le au switch arrière de celle-ci… les performances seront meilleurs et c’est bien logique.

Le module maître est équipé d’une puce Qualcomm QCA7500 pour ceux à qui ça parle et est à la norme HomePlug AV2. Plus rapide que l’ancienne norme, mais aussi compatible avec les autres CPL utilisant le même standard.

J’avais vu sur d’autres modèles, une double prise de terre sur la prise mâle des modules, ce qui permettait de pouvoir brancher le module dans les deux sens. Je trouvais ça très ingénieux et particulièrement pratique dans certains cas, malheureusement, le TL-WPA8630P ne reprend pas cette idée. Sur la tranche droite du module, on trouve le bouton d’appairage, et c’est tout au niveau de la connectique ou des autres choses visibles. En même temps, je ne vois pas ce qu’on pourrait rajouter d’utile sur ce produit.

Quant au module « client », qui est encore plus gros, il est aussi à la norme HomePlug AV2 concernant le CPL, et le WiFi est lui au format 802.11 ac et est compatible avec le WiFi n. Sur le 2.4 GHz, WiFi n, les débits max théoriques sont de 300 Mbps et sur la partie WiFi 5 (ou WiFi ac donc), nous sommes à 867 Mbps (théoriques également bien entendu). Ce qui nous donne un débit maximum théorique cumulé de 1.2 Gbit/s.

Comme nous l’avons vu, le module client dispose de 3 ports RJ45 ce qui sera très pratique si vous voulez y brancher des périphériques qui ne supportes pas le WiFi, vous pouvez même si le cœur vous en dit y relier un switch pour multiplier encore plus les capacités de connexion de ce bloc CPL.

La partie WiFi peut se comporter comme un point d’accès, c’est-à-dire qu’elle diffusera un réseau WiFi propre, avec son propre SSID (nom du réseau sans fil), ou bien, agir en tant que répéteur. Pour rappel, un répéteur, prolonge votre réseau WiFi préexistant, c’est-à-dire qu’au final, vous vous retrouvez avec un seul et unique réseau WiFi, avec le même nom, et que votre périphérique se connectera à celui qui propose la meilleure réception. C’est donc assez complet.

Cette partie WiFi se paramètre via l’interface en ligne des modules, je ne crois pas qu’il y ait une appli dédiée sur smartphone pour ce produit. Donc si vous êtes tout à fait novice, il faudra bien lire la notice d’utilisation avant de vous lancer. Ça n’a pas bien grand-chose de compliqué, à l’aide d’un navigateur internet on entre l’IP du CPL, on se log sur la page d’administration à l’aide des identifiants par défaut, on change le mot de passe pour plus de sécurité, et ensuite on est libre d’administrer l’appareil comme bon nous semble.

Donc via cette interface, vous pourrez paramétrer votre WiFi, SSID, mot de passe etc… mais uniquement le WiFi, le CPL n’étant pas administrable, il ne s’agit après tout que d’un câble, même s’il est plus ou moins virtuel.

Le paramétrage du WiFi vous proposera un semblant de contrôle parental, vous pourrez par exemple quel périphérique peut accéder à Internet, et surtout sur quelle plage horaire. C’est pratique pour que votre enfant ne fasse pas de tablette avant d’avoir fini ses devoirs par exemple, mais il ne s’agit pas d’un vrai contrôle parental dans le sens où vous ne pourrez pas limiter l’accès à certains sites, que cela soit par catalogue, ou par mots clés.

Concernant la partie répéteur, c’est à mon sens ce qu’il y a de plus intéressant vis-à-vis de cette fonctionnalité WiFi, tout simplement car comme les TL-WPA8630P sont hybrides, la communication entre le répéteur et le routeur ne se fera pas en WiFi, mais bel et bien via le courant porteur. Ca peut sembler n’être pas grand-chose, mais en réalité cela change beaucoup par rapport à un simple répéteur. En effet, quand vous installez un répéteur, ce dernier doit être situé dans la zone d’émission de votre routeur WiFi (ou de votre box), en d’autres termes, le répéteur, doit capter le signal de votre box. Ici, on s’en moque, le module WiFi du CPL client, communiquera via la ligne électrique, il peut donc tout à fait être placé à l’autre bout de la maison, derrière une infinité de murs en béton armé, ça n’a pas d’importance.

Débits

Bon c’est quand même un facteur très important puisque souvent c’est celui qui va vous décider à acheter ou non tel ou tel adaptateur CPL.

Vous vous rappelez ? Je vous ai déjà expliqué que le débit théorique annoncé ne veut pas dire grand-chose, car vous ne l’atteindrez jamais, il s’agit du débit théorique de la norme, et il n’a probablement était atteint que durant les tests en laboratoire. Bref, nous avons chronométré le TL-WPA8630P à 190 Mbps, soit quasiment 24 Mo/s. Ce sont de très bons chiffres, même s’ils peuvent changer un peu en fonction de votre installation électrique. Pas trop d’inquiétude ceci dit, car j’ai testé ces produits chez moi, et pas dans un bureau tout neuf de la Défense, vous devriez donc être assez proche de ces débits. Et si les modules sont reliés de manière très proche, environ 5 mètres, on monte même à 320 Mbps, donc à environ 40 Mo/s. C’est donc tout à fait suffisant pour faire n’importe quoi sur internet.

Concernant le WiFi, en ac, donc en WiFi 5, nous avons atteint des débits de 430 Mbps, soit (on divise par 8, j’aime la pédagogie), environ 54 Mo/s ce qui est très confortable. Mais attention pour atteindre ces chiffres, nous avions branché le module client directement par câble à notre box. En effet, vous serez limité, dans sa vraie utilisation, par le débit de votre CPL puisque, comme nous l’avons dit, la partie WiFi communique avec le routeur en utilisant le CPL. En d’autres termes, et si nous reprenons les chiffres obtenus chez moi, votre WiFi ne pourra pas dépasser 24 Mo/s si les modules sont très éloignés, ou 40 Mo/s s’ils le sont moins. Mais même à 24 Mo/s, si le but premier n’est pas de transférer des films toute la journée entre votre ordinateur et votre NAS, vous pourrez tout faire de manière assez confortable.

Enfin, pour ceux qui regardent ce genre de données, et vous devriez tous vous en soucier, le bloc client consomme environ 5 watts au repos, et 7 en utilisation. La consommation du module maître est bien moindre.

Conclusion

Pour conclure ce TL-WPA8630P est un très bon kit CPL/WiFi, les débits sont confortables, il n’y a pas de coupure et tout fonctionne très bien. Certains points bien venus comme la double fonctionnalité point d’accès / répéteur sur le module client sont les bienvenus. Il est dommage que le WiFi soit limité à la bande passante CPL mais cela n’est pas le cas que pour ce produit, et c’est un comportement tout à fait normal, comment faire autrement ?

Je trouve, que cette solution hybride CPL/WiFi est tout à fait adaptée aux grandes maisons, ou au lieu ou il est difficile de mettre en place un système mesh ou un répéteur WiFi traditionnel.

TP-Link TL-WPA8630P
  • Performances
  • Simplicité
  • Design
  • Prix
4.9

CPL WiFi pour grande surface

Je trouve, que cette solution hybride CPL/WiFi est tout à fait adaptée aux grandes maisons, ou au lieu ou il est difficile de mettre en place un système mesh ou un répéteur WiFi traditionnel.

The post Ce que je pense du TP-Link TL-WPA8630P : un prix élevé pour de bonnes performances appeared first on Routeur-Wifi.


Powered by Planet!
Mise à jour: Le 03 August 2020 à 17:03:42