[JM B] Informatique et société - N° 31 - 11 novembre 2011

Sommaire du numéro 31

*Internet, toute la connaissance du monde à portée de tous ?

* Recherche scientifique et informatique

* Carte nationale d’identité électronique : le fichier des gens honnêtes

* Brèves

______________________________________________________

Il y a fort longtemps que je n’ai rédigé de lettre “Informatique et société”. Cela se marque, tout à fait normalement, par une chute du nombre de connexions mensuelles sur le site http://iets.entre-soi.info/

_______________________________________________________

* Internet, toute la connaissance du monde à la porté de tous

Deux idées courantes (idées reçues ?): avec l’internet, toute la culture du monde est à la portée de clic de tout un chacun. Deuxième idée courante : les jeunes générations (digital natives) ont de tous les outils informatiques une maitrise et une connaissance spontanées.

J’avais quelques doutes. De tous temps la culture a été à la portée de tous, dans les bibliothèques, les musées. Est-ce pour autant qu’elle était partagée ? Le fait que sur internet on ait un accès immédiat à une quantité gigantesque d’informations, dans lesquelles on trouve tout et le contraire de tout rend-il les choses plus faciles ?

Quant-à la maitrise spontanée qu’auraient les “jeunes” de tous ces outils, quelle est-elle ? Une maitrise des pratiques, des codes, des modalités des échanges peut-elle s’assimiler à une compréhension de la façon dont l’informatique traite l’information, et des méthodes pour se repérer dans cette “masse” a priori informe et contradictoire ?

J’ai demandé une contribution à un ami spécialiste pointu de la question. Voici sa réponse :

Tu as parfaitement raison sur le clivage culturel et effectivement, beaucoup de choses ont été écrites à ce sujet. Le problème n'est plus celui de la fracture numérique (équipement, maîtrise de l'outil) mais le problème de l'entrée dans de nouvelles logiques.

1- Le savoir du monde, tel qu'il existe aujourd'hui, n'est plus "transmissible". En effet, à l'image de l'univers, il est devenu en expansion infinie (or, pour transmettre, il faut "arrêter" la prise de vues à un certain moment) et surtout il est en permanence accessible à travers l'internet.

2- Le problème n'est donc plus de "savoir" mais de savoir accéder au savoir. Cela suppose la détention de clefs d'entrée (frapper à la bonne porte), la maîtrise des logiques de contiguïté des savoirs (dans un espace horizontal, celui de l'hyper-texte : ne pas se perdre dans le labyrinthe), les critères de sélection ou de validation des savoirs, et la grille de références de "fondamentaux" auxquels on doit rapporter les savoirs auxquels on accède. Ce sont ces quatre éléments auxquels devrait désormais s'attacher (selon moi !) l'Ecole...

3- Autrement dit, internet est un océan riche de ressources multiples. Il est permis à tous de se jeter dedans. Mais on a intérêt à savoir nager, ou à disposer au moins d'une bouée, et même dans le cas où on sait nager à ne pas se jeter dans des vagues de 4m de haut...En conséquence aussi, il n'est pas sûr, contrairement à ce qu'on pourrait penser, qu'il soit plus facile aujourd'hui de devenir autodidacte qu'hier. L'autodidacte d'aujourd'hui est un naufragé et un noyé en puissance, puisqu'il ne dispose pas de la trousse de survie minimum

Je ne pense pas simplifier abusivement cet apport en disant que, sans une formation très solide, et permanente (système éducatif, associations d’éducation populaire....) l’internet risque fort d’aggraver les clivages culturels plutôt que de les estomper.

______________________________________________________

*Recherche scientifique et informatique : bref billet

Pourquoi «bref billet» ? : parce que vu l'ampleur du sujet, on évoque ici en quelques lignes des questions complexes pouvant donner lieu chacune à des articles ou des livres... Donc bref, car très partiel.

Dès l’apparition des tout premiers ordinateurs, la recherche scientifique et les pratiques technologiques ont été modifiées, puis bouleversées par les usages de l'informatique.

Des ordinateurs de plus en plus puissants, des modèles de plus en plus complexes

Les ordinateurs Mark, en particulier Mark2, en 1947, répondaient à des besoins concernant les calculs militaires, beaucoup trop longs à effectuer par les méthodes classiques. Aujourd’hui, on ne saurait déterminer sans ordinateur les trajectoires des sondes spatiales se rendant vers d’autres planètes, pendant des durées pouvant atteindre plusieurs années. Il a fallu allier la puissance de calcul des machines à l’élaboration d’algorithmes de calcul numérique spécifiques pour rendre possibles de tels exploits technologiques.

La puissance de calcul alliée à l’extension des capacités mémoire a permis, au fur et à mesure des années, le traitement de très grandes quantités d’informations. Un exemple : le collisionneur de particules LHC installé par le CERN à la frontière franco-suisse vise en particulier à rechercher l’existence d’une particule essentielle à la cohérence des théories actuelles sur la matière : le boson de Higgs. Il faut pour cela faire entrer en collision des particules de très haute énergie, et trier et analyser les observations résultant de cent millions de collisions par seconde pour y trouver un événement rare. Quelques centaines d’événements par seconde sont à analyser en détail. Masse de calculs évidemment impossible à effectuer sans l’ordinateur. On voit apparaître dans ce contexte la pratique du calcul réparti : le CERN ne disposant pas à lui seul de la puissance de calcul nécessaire, le travail est réparti sur les ordinateurs de tous les laboratoires de la planète travaillant sur ce sujet.

Notons d’ailleurs qu'un appel est lancé à tous les possesseurs d'ordinateurs : aidez la recherche scientifique. Votre machine, surtout si vous êtes un particulier utilisateur moyen, ne fonctionne qu'une toute petite partie du temps. Prêtez la puissance de calcul que vous n'utilisez pas aux calculs scientifiques partagés.

http://fr.wikipedia.org/wiki/Calcul_distribu%C3%A9

Au fil des années, les progrès immenses accomplis dans la modélisation mathématique des phénomènes physiques et chimiques entraîne de profondes évolutions. Ces évolutions sont, là encore, rendues possibles par l’accroissement des puissances de calcul et des capacités mémoire des machines.

Ainsi, Jean-Marie Lehn (prix Nobel de chimie 1987) a pu créer en laboratoire de nouvelles molécules après avoir “prévu” la possibilité de leur existence par des calculs informatiques tenant compte, entre autres facteurs, de l’encombrement des atomes, des interactions entre eux. On prévoit intellectuellement, puis on réalise. Les recherches actuellement en cours visent à modéliser les molécules du vivant, pour déterminer l’efficacité d’une molécule à visée thérapeutique avant de lancer une étude clinique.

Les évolutions des modèles les plus perceptibles au grand public sont celles des modèles météorologiques, qui permettent de prévoir les évolutions du temps sur une période de plus en plus longue et sur une étendue géographique de plus en plus réduite. Ces résultats ont une importance cruciale pour la sécurité des personnes et pour le fonctionnement de l’économie. Des modèles très complexes sont mis au point, fondés en particulier sur les lois de la dynamique des fluides, dont l'application à un système aussi vaste et hétérogène que l'atmosphère terrestre ne va pas de soi. L'exécution de ces algorithmes oblige à concevoir des ordinateurs de plus en plus puissants.

Une évolution radicale des modes d'échange et de discussion au sein de la communauté scientifique

L'intensité, l'ampleur et la rapidité des échanges au sein de la communauté scientifique sont accrues par l'existence des réseaux de communication. Tout récemment (octobre 2011) une équipe de recherche publiait une observation impliquant qu'une particule s'était déplacée à une vitesse supérieure à la vitesse de la lumière, phénomène contradictoire avec la théorie de la relativité. Ce laboratoire lançait alors un appel à l'ensemble de la communauté : refaites nos expériences, cherchez les artefacts, voyez comment trouver des failles dans notre méthode.

De même (mais je ne saurais de mémoire citer les références exactes) un mathématicien a récemment établi le canevas d'une démonstration d'une conjecture célèbre, jusque là non démontrée. Il a publié ce canevas, en laissant à l'ensemble de la communauté de mathématiciens le soin d'en trouver les failles éventuelles, et de compléter les étapes manquantes.

On passe d'échanges allant à la vitesse du cheval au galop pour Descartes et ses correspondants à des débats seulement liés à la vitesse de la lumière (et, hélas, à la nécessité pour l'homme de réfléchir, de penser, d'écrire...)

Cette rapidité, et cette facilité d'accès ne vont pas sans quelques inconvénients. Le phénomène du plagiat pose de réels problèmes dans les publications, les thèses. Phénomène aggravé par le fait que le nombre des publications effectuées par les chercheurs prend une forte place dans leur évaluation.

Autre développement déstabilisateur : chacun peut désormais mettre en ligne, soit individuellement, soit par l'intermédiaire de sites spécialisés, les résultats de ses recherches. Extension de la liberté d'échange et de discussion, mais risque de saturation. Jusqu'alors les résultats notables étaient publiés dans des revues à «referees», experts qui étudient l'article à publier et donnent un avis sur la pertinence de sa publication. Le mode de fonctionnement de ces referees fait l'objet de critiques : ils sont anonymes, et souvent à la fois juges et partie. L'absence de referees conduit, elle, à une augmentation massive et progressivement asphyxiante du nombre de publications, accentuée par l'évaluation des chercheurs fondée sur le «publish or perish».

Juste pour votre plaisir, ne résistez pas à la proposition qui vous est faite d'écrire un article destiné à être publié dans une revue consacrée à l'informatique.

http://pdos.csail.mit.edu/scigen/

(Attention : pas de www.)

Étonnant, tout y est, les graphiques, la bibliographie, les analyses. Tout cela n'a aucun sens, mais le résultat est stupéfiant.

(Vous pouvez avoir confiance, le résultat n'est pas stocké à votre nom, ni sous les autres noms que vous pouvez donner comme auteurs). J'insiste, essayez : il y a longtemps que je n'avais pas accédé à ce site, j'en suis encore plein de rire et d'étonnement, ne vous en privez pas)

Une évolution de la façon même de penser ?

Les mathématiques sont le seul cas d'une science fondée sur le seul raisonnement de l'esprit humain. Le mathématicien construit un ensemble de concepts, qui n'ont nul lien à avoir avec la réalité. Il applique une méthode de raisonnement logique pour en déduire des conséquences, par la méthode de la démonstration.

L'ordinateur introduit une nouvelle possibilité : on n'a plus à «démontrer» logiquement. On peut essayer, grâce à la puissance de calcul, toutes les possibilités, et, si l'on ne trouve aucune exception, le théorème est valide. Mais, se demandent certains mathématiciens, est-ce encore une démonstration ?

Deux exemples :

Le théorème des quatre couleurs : Extrait de Wikipedia

«Le théorème des quatre couleurs indique qu'il est possible, en n'utilisant que quatre couleurs différentes, de colorer n'importe quelle carte découpée en régions connexes de sorte que deux régions adjacentes (ou limitrophes), c'est-à-dire ayant toute une frontière (et non simplement un point) en commun reçoivent toujours deux couleurs distinctes. [...]

Finalement, en 1976, deux Américains, Kenneth Appel et Wolfgang Haken, affirment avoir démontré le théorème des quatre couleurs. Leur démonstration partage la communauté scientifique : pour la première fois, en effet, la démonstration exige l'usage de l'ordinateur pour étudier les 1478 cas critiques (plus de 1200 heures de calcul à l'époque, sans doute cinq minutes avec les machines actuelles). Le problème de la démonstration du théorème se trouve alors déplacé vers le problème de la validation d'une part de l'algorithme d'exploration, d'autre part de la validité du programme qui le réalise. » Fin de la citation de Wikipedia.

Un autre problème a été résolu de façon analogue, celui de la conjecture de Kepler (il y a 400 ans) sur la façon optimale d’empiler des oranges (enfin, pour Kepler il s'agissait de boulets de canons, autres temps...) en perdant le minimum de places entre les oranges.

Ces démonstrations par ordinateur appliquent la démarche suivante : d'abord, par un raisonnement mathématique, on cherche une borne en dessous de laquelle la solution se trouve : s'il y a une solution, elle est nécessairement en dessous de cette borne. On a ainsi « éliminé l'infini », et l'on peut essayer avec un l'ordinateur toutes les possibilités se trouvant en dessous de la borne prévue, puisqu'il n'y a désormais qu'un nombre fini de possibilités. Si aucune des possibilités essayées ne satisfait la conjecture, celle-ci n'est pas vérifiée.

Ceci est fort bien expliqué dans une video très claire et grand public du mathématicien Dowek, que vous trouverez sur le site de l'école normale supérieure, à coté de beaucoup d'autres vidéos de vulgarisation scientifique.

http://www.les-ernest.fr/node/84

Dans cette prestation, Dowek conclut que la notion même de démonstration est en train de changer.

Cf l'annexe 1.

Et voilà

Et voilà, fin du bref billet, en attendant bien sûr vos remarques, critiques, autres exemples.

*****

Annexe 1 : exemple de démonstration par ordinateur, tiré de la vidéo de Dowek citée ci-dessus. (Accessible à tous !)

Soit l'équation x5 = 7x3 + 2x2 + x + 10

A-t-elle une solution en nombre entier ?

On peut essayer : remplaçons x par 0. A gauche du signe égal on trouve 0, à droite on trouve 10. 0 n'est pas égal à 10 ; 0 n'est pas une solution de l'équation.

Remplaçons x par 1 : à gauche du signe égal on trouve 1 et à droite on trouve 21. 21 n'est pas égal à 1 ; 1 n'est pas une solution de l'équation.

Remplaçons x par 2. A gauche du signe égal on trouve 32, à droite on trouve 76. 32 n'est pas égal à 76, 2 n'est pas solution de l'équation.

Puisqu'on cherche une solution en nombre entier on se dit alors : continuons et essayons tous les nombres entiers. Mais c'est impossible, car il y a un nombre infini de nombres entiers. Il faut “éliminer l'infini”.

Dans une première étape, par un raisonnement que nous ne reproduisons pas ici, mais qui est exposé dans la vidéo, on montre que si cette équation a une solution entière cette solution est forcément inférieure ou égale à 50.

Il suffit alors de demander à l'ordinateur de faire 51 calculs, en remplaçant x par les nombres entiers 0, 1, 2, ... 50. Inutile d'essayer au dessus de 50, puisqu'on sait déjà que s'il y a une solution elle n'est pas supérieure à 50.

On constate en faisant les 51 calculs que aucun entier inférieur ou égal à 50 ne vérifie l'équation, et donc l'équation n'a pas de solution en nombre entier.

D'accord, on aurait pu faire les 51 calculs à la main, sans ordinateur, c'était juste pour donner un exemple de la méthode, qui s'applique dans des cas beaucoup plus complexes. C'est ce que les mathématiciens appellent le problème des équations diophantiennes. (Cela peut vous servir dans les dîners en ville, ça en jette...)

Annexe 2 : intelligence artificielle !

Juste pour réfléchir un peu. Je vous ai donné ci-dessus un exemple de site qui écrit des papiers scientifiques tout à fait vraisemblables et totalement bidon.

Voici un exemple des risques qu'il y aurait à demander à une machine de rédiger les « abstracts » résumant un article scientifique.

J'ai demandé au logiciel de traitement de texte de faire un résumé au 1/10 du texte ci-dessus. Voici le résultat :

Résumé

« * Recherche scientifique et informatique : bref billet

Pourquoi «bref billet» ? : parce que vu l'ampleur du sujet, on évoque ici en quelques lignes des sujets complexes pouvant donner lieu chacun à des articles ou des livres...

Des ordinateurs de plus en plus puissants, des modèles de plus en plus complexes

Les ordinateurs Mark, en particulier Mark2, en 1947, répondaient à des besoins concernant les calculs militaires, beaucoup trop longs à effectuer par les méthodes classiques. Ces évolutions sont, là encore, rendues possibles par l’accroissement des puissances de calcul et des capacités mémoire des machines. Ces résultats ont une importance cruciale pour la sécurité des personnes et pour le fonctionnement de l’économie. Des modèles mathématiques très complexes sont mis au point, dont l’exécution oblige à concevoir des ordinateurs de plus en plus puissants. »

Fin du résumé.

Intéressante façon de faire un résumé. Mis à part le chapô, qui est dans le résumé une simple recopie d'une partie non essentielle, tout le reste du résumé n'a strictement aucun sens. Fastoche. Vive l'informatique...

______________________________________________________

* Carte nationale d’identité électronique, le fichier des gens honnêtes

article publié en octobre 2011 dans la revue de la Ligue de l’enseignement “Idées en mouvement”, reproduit avec l’autorisation de l’éditeur.

La proposition de loi relative à la protection de l'identité a été adoptée le 7 juillet 2011 à l'assemblée nationale par 6 voix sur les 11 députés présents. Quel vif intérêt de l'ensemble de nos élus pour ce sujet pourtant capital pour les libertés publiques ! Cette proposition poursuit son trajet devant le Sénat.

Au Sénat, le rapporteur de la proposition avait déclaré qu'il s'agissait du premier « fichier des gens honnêtes ». Une apparence, un prétexte : cette loi est destinée à lutter contre les usurpations d'identité, phénomène tout à fait marginal et déjà pris en compte dans la loi dite Loppsi2. Une réalité : un vaste fichier national rassemblant des dizaines de millions de français va enfin combler les pulsions des tenants d'un fichage généralisé.

La carte d'identité instaurée par la loi comportera un « composant électronique sécurisé » contenant les renseignements usuels d'identité, les empreintes digitales (leur nombre n'est pas précisé, beaucoup sans doute, plus que n'en exige la commission européenne) et l'image numérisée du visage. Le texte ne dit pas si le composant pourra être lu à distance (puce RFID), et donc si les contrôles d'identité pourront avoir lieu à l'insu de l'intéressé. On peut le craindre.

Toutes ces données seront rassemblées dans un vaste et unique fichier centralisé. Les risques créés par la seule existence d'un tel fichier sont immenses. On a déjà vu comment les renseignements gardés dans le fichier de police Stic ont pu être piratés, revendues par des fonctionnaires peu scrupuleux à des agence de renseignement. Quelle mine que ce fichier comportant des dizaines de millions de personnes, leur identité, leur adresse, leur photo, leurs empreintes. Certes ce fichier ne sera pas en accès libre, mais les commerçants, les agences de renseignement, les créanciers, ceux qui voudront connaître votre adresse pour vous retrouver, et d'autres, trouveront bien des moyens d'y collecter ce qu'ils y cherchent. Faisons confiance à leur ténacité... La Cnil souhaitait que ce fichier soit fractionné et que les accès en soient mieux contrôlé. Demande non acceptée.

Ajoutons que, dans une première étape, ce fichier des gens honnêtes ne pouvait être utilisé dans les enquêtes de police. Il serait dommage de se priver d'un tel outil ont déclaré les députés, qui ont rajouté cette possibilité d'usage au projet initial. Tous fichés, tous surveillés. Le principe qui semble en vigueur en ce moment est bien : remplaçons la poursuite des coupables par le fichage a priori de tous, chacun pouvant devenir un coupable.

Enfin, le ministre de l'intérieur avait affirmé en séance que la durée de conservation de ces données seraient limitée à 15 ans, mais cet engagement ne figure pas dans le texte de la proposition de loi. Conservation éternelle ?

Autre sujet d'inquiétude : la même carte comportera un deuxième composant électronique qui servira aux transactions privées : paiement, certification de signature, ou tout usage qui sera proposé au porteur de la carte. Le fichier des utilisateurs (mais pas des utilisations) sera le même que celui de l'identité. Certes, le porteur de la carte ne sera pas tenu d'accueillir de telles applications. Mais ce sera si commode... Une puce dite « régalienne » et une puce commerciale, quelle aubaine pour les commerciaux.

En étant à peine ironique, on peut même se demander si la carte d'identité n'est pas un prétexte pour diffuser auprès de millions de personnes cette puce offrant de nombreux services. On le sait, l'industrie française des cartes à puce est l'un des fleurons de notre économie. Et, systématiquement et à tout propos, le Gixel (groupement français des industries de composants et de systèmes électroniques) plaide pour que l'on habitue la population aux usages de ces produits. Des dizaines de millions de personnes.... Comment mieux les exaucer ? Jean-René Lecerf, l'auteur de la proposition de loi, a déclaré sobrement que "les entreprises françaises sont en pointe mais elles ne vendent rien en France, ce qui les pénalise à l’exportation par rapport aux concurrents américains" Il fallait bien y remédier.

Pour l'instant, en France, la carte d'identité n'est pas obligatoire. La proposition de loi dit dans son article 1 que « l'identité d'une personne se prouve par tout moyen. » Mais il deviendra de plus en plus difficile de s'en passer. Le fait de la rendre obligatoire ne soulèvera alors aucune indignation.


Dernière minute, le Sénat a une majorité de gauche : début novembre 2011, dans le cadre des navettes parlementaires, le Sénat a discuté la proposition de loi. Une crainte : que toute photo prise (par exemple par des caméras de video surveillance) puisse être comparée avec la photo numérisée enregistrée dans le fichier national de la carte d’identité. Tout un chacun pourrait alors être repéré en permanence. Dans l’état actuel de la proposition (en simplifiant un peu) cette correspondance ne pouvait être établie qu’avec l’accord d’un juge. Le ministre de l’intérieur souhaite que cette correspondance puisse être établie par toute personne (police en particulier) autorisée à accéder au fichier. Le Sénat a refusé. Cela dit, l’assemblée nationale aura le dernier mot.

_______________________________________________________

* Brèves

- Le monde informatique, 8 11 2011

Twitter et Facebook permettent à la CIA, l'agence centrale de renseignement américaine, de se faire une idée fiable, en temps réel, de l'opinion publique, au tempo de l'évolution des événements dans le monde. Selon l'Associated Press, la CIA suit jusqu'à 5 millions de tweets par jour déversés sur Twitter, Facebook et dans les blogs. La centrale du renseignement observe aussi d'autres réseaux sociaux depuis un immeuble ordinaire situé dans une zone industrielle de Virginie. Contacté au sujet de cet article par nos confrères de ComputerWorld, le porte-parole de la CIA n'a pour l'instant pas réagi.

Fin de Informatique et société N° 31, 11 novembre 2011