Mon ordinateur est un con

Stupid DRM (CC-By-Sa deanwissing)Pour ce premier vrai article, j’ai décidé de vous parler de l’informatique en général, et surtout des fausses idées qui sont très à la mode en ce moment. À la base, cet article devait être un court aparté dans un autre article (très long) que je suis en train de rédiger. Au final l’aparté a grossi et a fini par devenir un article à part entière.

De quoi parlons-nous donc ? De votre ordinateur. Au sens large, c’est-à-dire que votre téléphone, votre lecteur multimédia ou votre GPS sont inclus dans ce que j’appellerai « ordinateurs ».

Un mot revient très souvent lorsque l’on parle des nouvelles technologies informatiques, c’est le mot « intelligent ». On nous vend des systèmes intelligents, Google vous propose un moteur de recherche intelligent (qui va deviner ce que vous voulez dire alors que vous ne l’avez même pas dit !) et votre téléphone est devenu un smartphone. Même vos jeux sont pleins d’intelligences artificielles. On n’arrête pas le progrès, tout le monde peut se payer un Albert Einstein personnel !

C’est pourtant un contresens absolu. Gardez toujours à l’esprit une chose : un ordinateur, c’est con, c’est même prodigieusement con. Il y a autant d’intelligence dans votre matériel informatique que dans un boulier d’il y a 4000 ans. Comparer le cerveau d’une personne qu’on trouve brillante à un ordinateur, ça relève de l’insulte pure et dure.

Bah alors, il est quoi, s’il est pas intelligent, mon téléphone ? Et quand il détecte les visages sur les photos, il est pas intelligent ? Hein hein hein ? Dis dis dis ?

Hé bien non. Il a juste été entrainé pour ça. Et je ne te parle pas de la galère pour l’entraîner ! Imagine, un enfant en bas-âge, tu lui montres quelques visages, et paf, il comprend que c’est la même chose quand il en voit un autre. Hé bien l’ordinateur, non ! Pour lui faire détecter un visage, il faut lui faire calculer un nombre inimaginable de trucs, extraire des caractéristiques sur les pixels de l’image, construire des soupes de vecteurs qui n’ont aucun sens pour toi et moi. Et en plus, après, il faut lui montrer des milliers voire des millions de visages, pour qu’il apprenne bien ce qu’il doit détecter ! Et ce n’est pas tout, il faut aussi essayer d’être exhaustif (imagine, tu oublies de mettre des barbus, et hop, il est incapable de détecter un visage avec de la barbe !). Non franchement, il exagère. Au prochain dîner de cons, tu peux inviter ton smartphone.

Ouais mais tu vois, t’as dit qu’il pouvait apprendre ! L’apprentissage, c’est le signe d’une intelligence, non ?

Ça aussi, c’est à la mode. L’ordinateur intelligent n’est pas figé, comme il est intelligent, il s’adapte, il apprend. Alors certes, ce qu’on appelle l’apprentissage automatique (machine learning en anglais), c’est quelque chose de très pratique et qui permet de régler efficacement de nombreux problèmes (parce que je vais quand même être sympa avec ton téléphone : la reconnaissance de visage, au final, il fait ça très bien). Mais on n’a rien révolutionné. Les programmes d’avant (qui n’apprenaient pas donc), on leur donnait une variable X, ils la multipliaient par une constante (bon ils pouvaient faire d’autre trucs, mais on peut schématiser comme ça). Les programmes qui apprennent, ils font quoi ? On leur donne une variable X, ils la multiplient par… une autre variable Y. Variable Y qui va donc s’adapter à ce qu’on va donner à l’ordinateur, qui va être le résultat d’un entraînement. Et comment on fait cet entraînement ? Hé bien en multipliant une variable Z par une constante !

Vous comprenez où je veux en venir ? L’apprentissage, ça veut juste dire qu’on rajoute une étape dans ce que fait l’ordinateur. Au lieu de lui donner des instructions figées, on lui donne des instructions qui dépendent de variables qu’on va régler (ça c’est l’apprentissage) par d’autres instructions figées. Là où ça devient très intéressant, c’est qu’on va aussi savoir faire de l’apprentissage in situ, c’est-à-dire que l’ordinateur va continuer à adapter son comportement lorsque l’utilisateur va s’en servir. C’est très probablement ce que fait Google : lorsque vous cliquez sur un lien, il va retenir « okay, ça c’est un résultat pertinent pour cet utilisateur, à l’avenir je mettrai les résultats similaires en premier ». Toute question de vie privée ou de pertinence de ce comportement mis à part, c’est quand même sacrément malin, non ?

Oui, c’est très malin. Mais celui qui est malin, c’est celui qui a inventé ce système. Les serveurs de Google, ils font ce que quelqu’un leur a dit de faire. Mais au final, ils ne font rien de plus qu’additionner et multiplier des variables et des constantes. Comme un boulier d’il y a 4000 ans.

Ouais bon d’accord, mais quand même, tu trolles à mort ! Un ordinateur, c’est quand même vachement plus évolué qu’un boulier, non ?

Bien sûr ! Évolué, mais pas intelligent. La grande différence entre un boulier et un ordinateur, c’est la vitesse. Parce qu’un ordinateur est prodigieusement con, oui, mais il est aussi prodigieusement rapide ! Si je vous donne un tableau de 1000 nombres à trier dans l’ordre croissant, vous allez mettre combien de temps ? Probablement des heures. Un ordinateur, 1000 nombres à trier ? Mouarf ! Le temps d’appuyer sur Entrée pour lancer le programme, et c’est déjà terminé (si on lui a bien expliqué comment faire). Un ordinateur, c’est une bête de course absolue (même ceux d’il y a 30 ans vous éclatent littéralement, question vitesse).

Tout l’enjeu de l’informatique, c’est d’arriver à retranscrire l’intelligence humaine dans un langage que l’ordinateur peut comprendre pour profiter à la fois de votre intelligence (si si, ne soyez pas modeste) et de la rapidité extraordinaire de votre ordinateur. Et c’est loin d’être simple, parce que l’ordinateur a besoin qu’on lui explique tout bien, très précisément, dans les détails, en n’omettant rien et en ne laissant rien au hasard (j’vous ai déjà dit qu’il était con ?). Toutes les merveilleuses choses que vos téléphones peuvent faire, ils les font parce que quelqu’un, quelque part, a eu l’idée de leur faire faire et leur a expliqué correctement comment ils pouvaient le faire en faisant 15 milliards d’opérations de type Y=aX+b.

Le contraire est vrai aussi d’ailleurs : distinguer l’erreur humaine de l’erreur informatique, ça n’a pas de sens. Un bug, c’est juste un programmeur qui s’est mal exprimé et qui n’a pas dit exactement ce qu’il pensait dire à l’ordinateur (ou, souvent, qui n’a pas envisagé tout ce qui pouvait arriver si l’ordinateur faisait exactement ce qu’il disait). Mais l’ordinateur fait toujours ce qu’on lui demande (problème matériel mis à part). D’ailleurs, il ne fait même que ça.

Parce que votre ordinateur, au final, ce n’est qu’un con qui court très vite. Votre ordinateur, ce n’est pas Albert Einstein. C’est Forrest Gump.

Crédit photo : Stupid DRM (CC-By-Sa deanwissing)

48 réflexions au sujet de « Mon ordinateur est un con »

  1. C’est sympa et bien écrit, et assez pédagogique pour Mme Michu, je pense.
    Chouette pour un premier article.
    À suivre.

  2. 1. Très simple à comprendre
    2. Ça faisait longtemps que ça me démangeait de dire ça (Smartphone, tu parles…)
    3. Continue comme ça, aussi bon que le Geektionnerd dans un autre domaine
    Pas Albert Einstein, écrivant de son Forest Gump.

  3. > L’apprentissage de l’ordinateur, c’est juste faire varier un truc qui était constant avant.

    Et pourtant quand je cherche des infos à propos de l’apprentissage automatique, je tombe sur http://fr.wikipedia.org/wiki/Apprentissage_par_renforcement par exemple, où une adaptation à l’environnement fait partie du processus. Si la machine n’a jamais vu de barbus de sa vie, et qu’un barbu se met à faire coucou à la caméra, alors le processus d’apprentissage va mettre la barbe comme étant un élément possible d’un visage.

    Des machines arrivent à avoir un apprentissage très complexe à partir de consignes de la part du programmeur très simples. Au final, le programmeur n’a mis en place qu’une fonction d’adaptatibilité dans la machine. Certes, cela ne s’applique pas vraiment à nos smartphones & co, le sujet est quand même pour distinguer le rôle de la machine et celui du programmeur qui était derrière quelques semaines ou mois avant, mais la recherche en intelligence artificielle a déjà donné des résultats impressionnants.

    > L’ordinateur a l’air d’être intelligent, mais en fait il calcule supervite, c’est tout.

    Et l’animal, l’être humain et le programmeur, ce n’est pas pareil ? Ils n’ont pas un cerveau qui réalise plein de calculs super rapidement, des synapses qui sont équivalent à des transistors biologiques ?

    Certes l’architecture d’un processeur x86 (par exemple) dans un ordinateur et un réseau de neurones dans un cerveau, ce n’est pas exactement la même chose, mais l’architecture réseau de neurones, on y vient aussi avec les ordinateurs.

    L’intelligence dans un ordinateur, elle n’est pas exclue.

    Certes aujourd’hui elle n’existe pas (ou alors elle n’est pas détectée : Lire à ce propos http://www.laffont.fr/site/veille_&100&9782221116876.html Veille de
    Robert J. SAWYER où une IA nait du réseau Internet et met trois tomes avant d’être reconnue par les humains), mais ce n’est pas une impossibilité. La machine peut apprendre des choses que le programmeur n’a pas voulue lui apprendre explicitement.

    1. Pour le cas du barbu qui fait coucou à la caméra, on est dans le cas « in situ » dont je parlais (et où on continue donc d’apprendre pendant l’utilisation). Mais fondamentalement, ça ne change pas le bouzin qui est derrière, on a toujours que des variables qui bougent. Elles bougent d’une manière plus intéressante, sans doute, mais c’est tout.

      Aaah, est-ce que l’être humain c’est la même chose (calcul rapide), c’est une vaste question… Je ne suis pas sûr qu’on y ait vraiment totalement répondu d’ailleurs ? (Enfin je n’en sais rien, je ne suis pas compétent en neurosciences.) Est-ce que l’esprit humain est entièrement représentable par de la pure logique combinatoire ? Si c’est le cas effectivement, on n’est pas forcément plus intelligents (au mieux on est intelligents différemment, cf architecture comme tu le disais).

      Mais l’article tenait surtout à rétablir la vérité sur ce terme « intelligent » qu’on nous ressort à toutes les sauces et qui est juste un argument marketing pour faire croire aux gens que l’informatique d’aujourd’hui est une révolution par rapport à celle d’hier. Un peu comme le très haut débit qui est mieux que le haut débit (et après on l’appellera comment, le très très haut débit ?). Je n’exclue pas qu’on arrive à créer une intelligence dite « forte » comme celle du cerveau par informatique un jour, mais ce n’est pas ce qu’on a dans nos machines aujourd’hui.

      1. > Est-ce que l’esprit humain est entièrement représentable par de
        > la pure logique combinatoire ?

        À ce propos, et puisque je vois que ça cite des auteurs de SF par ici, je voudrais signaler Greg Egan, qui a pas mal écrit sur le sujet. Les connaisseurs penseront à La cité des permutants, mais personnellement je trouve qu’il n’est jamais aussi bon que dans ses nouvelles, en particulier Poussière, qui a inspiré le roman dont je viens de parler. Les éditions Le Bélial’ proposent une quasi-intégrale des nouvelles dans une traduction de qualité, où on retrouve la nouvelle Poussière dans le dernier des trois volumes.

      2. Et pourtant, quand on regarde ce que nous vend Apple sur la reconnaissance vocale sur son i(ntelligent)Phone, ça ressemble à de la sacrée intelligence.

        Si le comportement de l’iPhone est identique à celui de votre secrétaire, l’iPhone sera devenu aussi intelligent que votre secrétaire, même si derrière il y a des dizaines ou des centaines de développeurs chez Apple pour concevoir le programme.

        Les prouesses de débit sont vraiment des révolutions. Il y a vingt ans, la vidéo sur la ligne téléphonique, c’était vraiment de la science-fiction, scientifiquement impossible en raison des débits imposés. Certes il y a un usage marketing du terme intelligent, mais les révolutions technologiques ne sont pas absentes pour autant de ces innovations. Le problème est peut-être au niveau de la valeur ajouté de ces innovations.

        Un téléphone (combiné, clavier, fil…) qui fait télévision (tube cathodique), console de jeu (NES) , agenda (365 pages A4 pour les agendas les plus surchargés), réveil (mécanique avec une cloche), internet (PC actuel), etc., ça fait quand même une jolie révolution, et qualifier cette révolution d’intelligente, je ne sais pas si c’est si déplacé que cela.

        Ce marketing, c’est comme la pub, on cherche à être floué dans le premier degré, comme par exemple la fameuse publicité du chocolat coulé sur la poire (Nestlé) où de la peinture était utilisé pour le clip. Pense-t-on vraiment et sérieusement avoir quelqu’un qui nous comprend quand on engueule son ordinateur ?

      3. > Enfin je n’en sais rien, je ne suis pas compétent en neurosciences.

        Su ce sujet, je te conseille Les Neurones de la lecture, de Stanislas Dehaene, qui aborde la plasticité neuronale (et plein d’autres sujets passionnants dans le même genre) de façon tout à fait compréhensible pour le néophyte complet en neurosciences (que je suis). Je ne l’ai pas fini, mais paléo-Dieu que c’est bien écrit ! si on m’avait dit que je lirais plus de cent pages à l’heure sur de la neurologie…

        Pour revenir sur notre sujet (l’intelligence et les ordinateurs), le cerveau me fait de plus en plus penser à un ordinateur, au fur et à mesure que je lis cet ouvrage (merde ! ça pourrait faire un argument pour les créationnistes !).

  4. > Un bug, c’est juste un programmeur qui s’est mal exprimé (problème matériel mis à part).

    Tu oublies le cas où le programmeur a mal défini comment l’utilisateur devait s’exprimer.

    Exemple : « Voulez-vous ne pas supprimer le fichier ? Oui / Non »
    L’utilisateur répond non, et donc supprime le fichier🙂

    Le programmeur s’est bien exprimé.

    La machine s’est bien exprimée.

    L’utilisateur ne s’est pas bien exprimé car le programmeur son programme pouvait être utilisé. Les fameuses erreurs et évolutions de spécifications techniques / cahier des charges / expression du besoin.

    Bien retenir cette solution, car c’est comme ça que l’informaticien gagne de l’argent : « ce n’est pas un bug, c’est une évolution du cahier des charges, il vous faut donc signer un nouveau contrat ».

    1. Mmh, oui mais là pour moi ce n’est pas un « bug », c’est un programme mal foutu. Et encore une fois, c’est une erreur humaine et pas informatique (le mec qui a écrit la phrase aurait dû se relire et voir que ce n’était pas évident à comprendre).

      +1 pour la dernière phrase par contre, très vraie :p

      1. Je prend un autre exemple alors un peu mieux foutu :
        Un compteur de vitesse, le développeur français va graduer le compteur en kilomètre / heure.

        L’américain vient le voir, et lui fait remarquer que quand sa voiture est à 100 à l’heure, le compteur affiche 160 ! (Le même bug a provoqué des accidents)

    2. Là ce n’est même plus le programmeur qui s’est mal exprimé, mais tout le concept qui est mauvais. On essaye d’adapter l’utilisateur à un système alors que cela devrait être le contraire.
      Là, on peut même utiliser le concept de bêtise enregistrée.

  5. tu avais déjà un style au dessin, maintenant tu as du style à l’ecris… continue comme ca et tu gardes ta place dans mon tinyrss entre le framablog, tristan nitot, maitre eolas et zythom.
    (ton blog BD a déjà sa place dans la catégorie BD, entre boulet et laurel…)

  6. Un ordinateur est con et heureusement je dirais. SI les ordinateurs pouvaient réfléchir par eux même, au lieu de suivre une programme quelconque on aurait quelques soucis. Il n’existe pas d’ordinateur intelligent ou de vrai intelligence informatique car au final un ordinateur suit seulement un schéma bien établit. Je pense que la plus merveille des machines reste l’humain. Un humain est capable de ressentir des émotions, de s’adapter automatiquement à toute nouvelles situations, à se reproduire, de penser par lui même, d’être inventif, etc …

  7. Il n’y aura pas de vraie intelligence artificielle tant qu’une machine capable de s’autoprogrammer n’aura pas de motivation pour le faire. Les motivations pour le faire ? ce que tous les êtres vivants ont en commun: la recherche du plaisir et l’évitement de la douleur.
    L’intelligence écrite, même dynamique (capable de s’adapter aux données), reste un automatisme figé. Merci .d’avoir soulevé le problème.
    A+

    1. Douleur : Input à connotation négative ?
      Plaisir : Input à connotation positive ?

      Une motivation en tant que tel, ça ne doit pas être si compliqué que ça en fin de compte🙂

      > L’intelligence écrite, même dynamique (capable de s’adapter aux données), reste un automatisme figé.
      La validation du test du turing fonctionne encore avec assez peu de personne (tu discutes avec un robot IRC (ou tout autre robot qui discute avec l’écrit) et tu te trompes en disant que la personne avec qui tu discute est une véritable personne intelligente).

  8. J’abonde dans ton sens !

    Dans mon domaine certains travaillent sur les « smart textiles » autant te dire que c’est juste de l’électronique embarquée qui se résume la plupart du temps à : un écran souple sur une étoffe, un capteur souple dans structure fibreuse. Autant il y a un réel challenge intégrer finement ce genre de produits, autant appeler ça « smart » …

    Faudra faire une pétition pour abolir ces appellations🙂

  9. Très bon article. Merci.
    Moi aussi ça me fait délirer tous ces termes de marketeux afin de noyer le consommateur dans tout un tas de fausses idées. Mais c’est fort quand même comment avance la technologie🙂

  10. « Un bug, c’est juste un programmeur qui s’est mal exprimé et qui n’a pas dit exactement ce qu’il pensait dire à l’ordinateur (ou, souvent, qui n’a pas envisagé tout ce qui pouvait arriver si l’ordinateur faisait exactement ce qu’il disait). »

    Je conteste, j’ai eu dernièrement un projet à la fac dans lequel s’est glissé une erreur de compilation totalement incompréhensible (franchement, on s’est mis à quatre dessus et on y a passé des heures). Le problème a fini par être réglé de manière complètement absurde.
    On en a conclu que tout ce qu’on avait appris les trois années précédentes était probablement faux, et qu’en vrai l’informatique c’est juste des petits lutins qui font tout fonctionner, et parfois ils sont de mauvaise humeur.

    (conclusion confirmée une semaine plus tard par un autre bug, sur lequel on s’est dit qu’appeler un exorciste n’était peut-être pas une mauvaise idée. )

    1. Dans ce cas-là, le bug vient sans doute du compilateur. Donc du mec qui a écrit le compilateur et qui a écrit un truc faux quelque part :p

    2. Je confirme, l’informatique c’est un domaine où ton programme tombe en marche😉

      Pour revenir sur le sujet, je trouve que jusqu’ici on définit tacitement l’intelligence comme étant la capacité à effectuer des calculs. On parle de tri, de reconnaissance faciale, d’apprentissage, des domaines où, finalement, on peut toujours se retrouver grâce à des variables. Ma position sur les ordinateurs est assez tranchée pour l’instant. Dans l’état actuel des connaissances (et des miennes en particulier), un ordinateur n’est qu’une machine de Turing incapable d’accéder à une indépendance intellectuelle. Mais qu’en est-il des autres domaines des arts et des idées en particulier ? Est-ce qu’une machine est capable de créer des oeuvres d’art ? Non pas d’aligner des notes et de créer quelques pistes plus ou moins harmoniques, mais de créer vraiment quelque chose qui vienne du fond d’elle-même ?

      A part le bruit d’un crash, je ne vois pas.

  11. Yoyop :

    1- « Les prouesses de débit sont vraiment des révolutions. Il y a vingt ans, la vidéo sur la ligne téléphonique, c’était vraiment de la science-fiction, scientifiquement impossible en raison des débits imposés. »

    2- « Certes il y a un usage marketing du terme intelligent, mais les révolutions technologiques ne sont pas absentes pour autant de ces innovations. Le problème est peut-être au niveau de la valeur ajouté de ces innovations.

    Un téléphone (combiné, clavier, fil…) qui fait télévision (tube cathodique), console de jeu (NES) , agenda (365 pages A4 pour les agendas les plus surchargés), réveil (mécanique avec une cloche), internet (PC actuel), etc., ça fait quand même une jolie révolution, et qualifier cette révolution d’intelligente, je ne sais pas si c’est si déplacé que cela.  »

    1- en 99-2000,
    j avais à la fois des films qualité TV (sd) par tél.
    Pas en direct… mais en différé après 4-5 jours de mulage;

    et de la vidéo + son + « clavardage » en direct, grâce à une web-cam + micro/écouteur + clavier.
    une image couleur toutes les… 5 secondes.. quelques chose comme celà. Mais on avait cependant son correspondant en vision directe.

    Le passage de 1 image par X secondes à Y images par seconde n a quasi rien changé aux conversations par ordi (juste le partage de vidéo en direct, que le correspondant peut regarder de suite)

    La video (voire video HD) en direct n a pas fondamentalement changé le schmilblick :
    Le plus grand changement, reste les petites video (youtube/dailymotion) :au lieu de récupérer en PJ ou de télécharger pour visionner plus tard, on visionne direct.

    [pour les films… en 2000, je téléchargeais plus que je ne pouvais regarder… je n ai pas (encore) regardé certains films et épisodes de séries téléchargés à cette époque… donc la lenteur n’était pas vraiment un frein]

    2- Je ne vois aucune preuve d’intelligence artificielle, dans ce que tu dis…
    tu confirmes au contraire totalement le forest gump.

    c est la différence entre un luthier/verrier/menuisier, et une trousse à outil multi-fonction :
    la trousse à outil permet de visser, monter, démonter, raccorder,…

    mais, sans le bon ouvrier qui sait se servir du bon matos, un marteau ne saura pas faire la différence entre un clou à enfoncer dans la menuiserie d’une fenêtre, dans le joint d’un carrelage, dans un carrelage, ou ailleurs.

    mais la conception de l’outil (différence entre un marteau de vitrier, et un marteau de forgeron) montre, elle, une adaptation, une certaine intelligence.

    la reconnaissance d’image par les tél est intéressante, et pose certaines questions (dont je n ai pas la réponse) :

    A partir de l’étude entre les ressemblances/différences, un humain saura assez vite différencier un humain, d’un chat, d’un chien, d un arbre et d’une brouette, et repérer, dans chaque catégories, des différences entre différents individus.

    Est-ce que le programme de reconnaissance d’image du tél est capable d’extrapoler par auto-apprentissage, au-delà des visages humains :
    – pour un proprio de chenil, de faire de la reconnaissance entre différents chiens ?
    (en donnant, s’il ne l a jamais vu, la race et une évaluation de l’âge, de son état de santé, et de son état nutritionnel, comme sait le faire un éleveur; et, s’il l a deja vu, son nom ?)
    – pour un agriculteur, de faire la différence entre différentes vaches (en sachant que ce n est pas la tête, mais la robe, coté droit et gauche, qu’il faut utiliser, en donnant là aussi, la race, et une éval. de l’état de santé, nutritionnel et de l âge)
    pour un botaniste, à partir de la photo (voire de la description) d’une feuille, ou d’un champignon, savoir dire qu’elle est son espèce (ce dernier point doit être particulierement facile, vu que les botanistes ont fait, depuis longtemps, de tels programmes à embranchements dichotomiques, pour identifier des arbres à partir des feuilles*); voire (présence de mildiou, de …) dire quelle famille de parasites sont en train d attaquer cette feuille [parasites… ou pas : la feuille est brunâtre à cause d’un parasite (et quelle famille de parasites), ou d’un manque d eau, ou d’un surplus de soleil sur ce terrain… ou de l’automne]

    Il s’agit de connaissances basiques, pour une personne du métier.
    (je n’ai pas introduit de reconnaissance video, de reconnaissance du mouvement : un éleveur remarquera une dysplasie de la hanche, ou une blessure à une patte, à la façon de bouger de ses animaux)

    *L’intelligence a bien lieu au moment de la récolte des informations, de leur « digestion », et de leur mise en forme, pas dans son utilisation par l’ordinateur.

    c est la différence entre wikipedia, une mise en forme assez simple (même si elle a demandé du travail, malgré tout ^^), et les données présentes dans ses articles.

  12. Ton article me rapelle un one-shoot de Douglas Adams « Un cheval dans la salle de bain » ou le héron tien un discours assez semblable en ajoutant qu’on apprend mieux en expliquant des trucs a son ordinateur car il faut nous même les comprendre pour les lui expliquer clairement.

  13. Cher Gee,

    Votre article est le reflet de la vision qu’ont les informaticiens de leur ordinateur. Une vision bornée et jalouse de ses prérogatives. Vous ne savez visiblement pas ce qu’est l’intelligence. L’ordinateur n’est pas du tout con, il est même plus intelligent que vous. Encore faudrait-il que vous ayez l’humilité d’envisager la chose pour vous en apercevoir. Il a un cerveau qui présente bien des avantages sur le nôtre : volume, rapidité,fiabilité, à 100% disponible. Il a même une capacité de raisonnement inscrite dans son microprocesseur, inexploitée hélas, avec le booléen.

    Depuis 1982 on sait qu’un programme peut le faire raisonner comme nous (Pandora) grâce à un « mécanisme de raisonnement ». Et là je parle, moi, de 26 ans d’expérience en intelligence artificielle, domaine auquel j’ai beaucoup contribué par mes découvertes. Il ne manquait à cette machine que la capacité d’auto-apprentissage. Celle-là, elle existe depuis 1986. Elle a donné par la suite une multitude de systèmes-experts, directement écrit par des experts (donc non-informaticiens) eux-mêmes ! Depuis 1986, l’ordinateur sait apprendre nos connaissances. Même nos connaissances inconscientes et raisonner dessus. C’est à dire écrire des programmes à notre place, totalement fiables… Mais vous ne pouvez le savoir, vos collègues informaticiens refusent d’en parler et effacent même les articles qui auraient le front d’en parler ! Ainsi on maintient la masse dans l’ignorance qu’elle est bien meilleur programmeur que nos professionnels de l’informatique…

    Aujourd’hui, il ne manque qu’une chose à cette machine « idiote » pour en faire l’égale intellectuelle de l’homme : la faculté d’imaginer et d’inventer. Rien de rédhibitoire cependant. Nous, nous n’y parvenons qu’en observant le réel qui nous entoure avec nos 5 sens, en cherchant des relations, en testant des idées. Lui, on ne lui a pas encore donné les capteurs équivalents, il ne peut réfléchir que sur ce que l’humain lui dit ou lui fait. Mais ça va venir avec les robots…

    Si vous traitez un humain en con en le contraignant à suivre vos instructions, vous en ferez un domestique. Il commettra des conneries et ne sera jamais votre ami. Si vous le traitez en être intelligent en lui donnant de la connaissance, il vous surprendra par son intelligence et un jour il sera votre ami.

    Vous autres informaticiens, vous tenez absolument à rabaisser l’ordinateur car cela vous rassure sur votre propre intelligence. Hélas, votre intelligence ne sert à rien car vous-même, comme l’ordinateur, vous ne savez pas l’exploiter. Passer sa vie à donner des ordres aux autres, c’est …con. Faudrait passer au-dessus. Cela éviterait de répandre de faux concepts en commentant des articles comme celui-ci.😉

  14. Bof, tant qu’un ordinateur n’éprouvera ni plaisir ni douleur ni émotion, il n’aura pas de motivation ni de conscience de soi, et n’aura pas de comportement autonome, volontaire ou indépendant.
    Rien d’autre que ce qu’on lui aura dicté.
    Le reste n’est qu’automatismes et systèmes dynamiques (soit disant capables de s’autoprogrammer).

    1. La douleur et l’émotion n’ont rien à voir avec l’intelligence et la conscience de soi. Quant à la motivation, elle pose problème chez un humain pas chez l’ordinateur, qui exécute immédiatement ce qu’on lui demande…

      Quant à l’IA raisonnante, justement, elle produit « autre chose que ce que l’on lui a dicté » puisqu’on ne lui dicte rien ! Elle raisonne sur de la connaissance, se pose des questions, fournit des déductions, génère des explications, détecte des contradictions. On est très loin du procédural que vous connaissez, avec ses diktats !

  15.  » fournit des déductions, génère des explications, détecte des contradictions »
    voici un exemple de dictée: ce système a été conçu pour faire des déductions, générer des explications, c’est ce qui lui été imposé.
    l’organisme n’a pas besoin d’être capable d’apprendre à s’autoprogrammer pour cela, ni d’inventer un nouveau langage, ni même un nouveau mode (procédural, fonctionel etc.) ni aucun nouveau mode de fonctionnement. On est dans l’intelligence figée. Rien de nouveau.

    1. Nous ne sommes pas ici pour comparer des milliards d’années d’évolution humaine avec 60 ans d’informatique. Ni pour comparer un être humain qui a 30 ans de vie, donc d’apprentissage, derrière lui avec un ordinateur à qui on refuse d’apprendre quelque chose alors qu’il en est parfaitement capable.

      Ce qui nous intéresse, c’est ce que l’ordinateur peut faire pour nous. Mimer des émotions c’est l’enfance de l’art mais ça ne sert à rien. Par contre, produire un robot qui sait discuter avec nous à chaque instant, qui sait apprendre de plus en plus de nos connaissances (par lui-même) pour nous aider dans la vie courante et nous enrichir, ou qui peut risquer sa « vie » pour nous (vigile, garde du corps, pompier, militaire, policier, etc.), ça s’est intéressant et utile à notre société. C’est sous cet angle-là que je vois l’intérêt d’un ordinateur dont l’intelligence ressemble à la nôtre.

      Aujourd’hui, s’il est idiot ce n’est pas sa faute mais celle des programmes qui le guident, qui le traitent en idiot en lui imposant des ordres. Car il sait parfaitement raisonner si on s’appuie sur le booléen ou sur un « mécanisme de raisonnement » logiciel. Dans ce cas, il ira plus loin que nous en matière (de simulation) d’intelligence et même de conscience. Tout simplement parce que sa mémoire est eidétique et sans limite contrairement à la nôtre.

      Comme je vous l’ai dit, et je le pratique depuis 1986, on peut ne pas le programmer mais lui donner des connaissances en langage courant. Avec le raisonnement, il devient capable de dialoguer, d’apprendre vos connaissances et d’écrire des programmes.

      1. Comment et pourquoi un organisme ou un système va s’autoprogrammer pour modifier son comportement ? parce qu’il a échoué, parce qu’il s’est trompé. Sa recherche de plaisir n’a pas fonctionné.
        Il sait qu’il a échoué parce que ses neurotransmetteurs n’ont pas perçu de récompense. Pour cela, il faut percevoir la douleur, le plaisir, et la conscience de soi.
        Pour apprendre un nouveau language, il ne suffit pas de mémoriser,
        il faut expérimenter pour discerner ce qui est correct et incorrect grammaticalement.il faut se tromper, percevoir ses erreurs, et changer sa méthode plusieurs fois. Il faut aussi avoir des raisons ou motivations pour apprendre ce langage.

      2. Si je comprends bien, vous niez mon expérience de l’ordinateur intelligent…

        En effet, il y a deux formes d’apprentissage : par soi-même (par essais-erreurs) et par éducation. L’ordinateur ne peut pas apprendre par lui-même car on ne l’a pas équipé de capteurs pour émuler les 5 sens humains. A sa place, un humain resterait stupide. Donc il reste l’éducation. Ce que vous avez mis 30 ans à apprendre (je ne connais pas votre âge alors je fais une supposition) vous pourriez lui en enseigner l’essentiel en quelques mois car il n’oublie jamais rien.

        Face au savoir, un humain n’est pas une éponge, un ordinateur si. C’est là sa très grande force. Reste à savoir lui enseigner. Le mieux est de le laisser faire car notre connaissance est inconsciente. Mais lui, avec une bonne méthode (la Maïeutique), il sait l’extraire en dialoguant avec nous. C’est ça mon expérience.

        Et arrêtez de parler « raisons » ou « motivations ». Je vous ai dit qu’une machine n’a pas besoin de ça pour fonctionner, c’est encore un de ses grands avantages : elle marche non stop jusqu’à la panne sans jamais se plaindre. C’est l’humain qui se plaint…😉

  16. Alors on est dans un carcan de méthodes prédéfinies, cela ne laisse aucune autonomie, aucune progression possible autre que la mémoire. C’est de l’intelligence figée. Seules les données sont dynamiques, un peu Dans ce cas, comme dit l’article de cette page, on peut dire « mon ordinateur est un con » comme on dirait « ce livre est un tissu de conneries »
    Par exemple deep blue, (qui a battu kasparov aux echecs) ce n’est pas de l’intelligence artificielle, mais une méthode appliquée, avec tous les coups gagnants stockés dans une base de données, un algorithme en béton. C’est peut être artificiel, ça fonctionne, quant à appeler ça de l’intelligence…

    1. Blurk, à vous lire, j’ai plutôt l’impression que c’est vous qui êtes dans un carcan car vous vous répétez indéfiniment😉 Le raisonnement est un mécanisme, oui, mais qui donne de l’autonomie à l’ordinateur comme à l’humain. Chez l’un comme chez l’autre il produit des infos NOUVELLES contrairement au procédural qui ne restitue que ce que le programmeur a mis dedans. C’est pour ça qu’on parle d’intelligence artificielle.

      Je n’ai jamais cité Deep Blue comme exemple d’intelligence artificielle. Ce n’en est pas du tout, il ne fait pas le moindre raisonnement. Il ne contient les coups gagnants, oui, mais il calcule surtout tous les chemins possibles permettant d’y arriver et ne joue que les coups qui mènent au maximum de ces coups gagnants. Qu’un joueur humain puisse lutter contre ça montre la supériorité extraordinaire du raisonnement sur le calcul.

      Vous partez du principe que l’intelligence c’est spécifiquement humain. Ce n’est pas le cas ! Elle repose avant tout sur le raisonnement, une mécanique indispensable à la vie depuis 3 milliards d’années. Les primates, les dauphins, les animaux de meute raisonnent quasiment aussi loin que nous. Mais la paramécie aussi raisonne quand elle décide de fuir un danger, d’attraper un aliment ou de se reproduire avec un partenaire. L’homme a simplement poussé cette faculté plus loin grâce à son gros cerveau qui abrite une mémoire fantastique par rapport aux autres êtres vivants.

      Or, la mémoire de l’ordinateur est encore plus fantastique…

  17. « Elle repose avant tout sur le raisonnement, une mécanique indispensable à la vie depuis 3 milliards d’années »
    c’est bien ce que je pense, d’ailleurs, au niveau de l’intelligence artificielle, la recherche n’est même pas arrivée au stade d’une bactérie ou d’une abeille. Pourquoi? parce que jusqu’à présent, seules les données sont dynamiques. Pas les algorithmes. Nous sommes juste capable de recopier des raisonnements, un peu comme les chimpanzés imitent les humains. Ce ne sont que des chorégraphies de mécanismes apprises par coeur.
    Un estomac n’est pas capable de se digérer, alors qu’un cerveau, lui, peut se comprendre lui même. Mais une béquille ne sait pas marcher, et un programme ne sait toujours pas programmer efficacement.
    Avec l’intelligence, vient la conscience de soi, puis l’autodétermination.
    Les plus petites créatures du règne animal en sont capables.
    Il est probable que nous soyons victimes d’une vision réductrice de l’intelligence, au point que nous ne parlions pas de la même chose.

    1. La recherche universitaire en IA est abandonnée dans le monde depuis 15 ans. Elle n’a abouti que dans le privé. Le raisonnement est une mécanique, c’est une certitude, je ne vais pas revenir là-dessus. Les chimpanzés n’imitent pas le raisonnement des humains ni leur intelligence, ils raisonnent sans eux et ont une intelligence proche.

      L’autodétermination est un mot. Le résultat c’est l’action librement choisie, par un raisonnement avec parfois des sentiments. La machine en fera autant sans sentiment. Seul le résultat compte !

      C’est vrai que nous n’avons probablement pas la même vision de l’intelligence…

  18. « Qu’un joueur humain puisse lutter contre ça montre la supériorité extraordinaire du raisonnement sur le calcul.  »

    Même pas: Kasparov a perdu.

    1. Oui. J’ai dit « lutter ». Pas « gagner ». Le match a été très serré alors que le cerveau humain est incapable de mémoriser plus qu’un certain nombre de coups à l’avance. Après, il se trompe, il n’est pas sûr, il oublie. La machine n’oublie rien, elle ne doute pas, elle est parfaitement sûre sur des centaines de coups à l’avance.

      Deep Blue n’a pas montré la supériorité de la machine (qui de toute façon ne fait que suivre un programme écrit par des humains) mais la supériorité de l’intelligence humaine qui, seulement par le raisonnement et l’expérience, arrive à simuler la réalité avec une précision équivalente au calcul.

  19. Les inconvénients des logiciels d’échec (genre deep fritz et deep blue):

    1 – Stratégie qui privilégie la défense. donc pas de stratégie d’attaque avant le milieu de partie.

    2 – Le Comportement de l’ordinateur est prévisible (Kasparov qui avait trop misé sur cette idée a perdu)

    3 – Un arbre des possibilités trop vaste à explorer en moins de 3 minutes

    Une fois ces trois problèmes totalement résolus, ce qui va arriver, si l’ordinateur gagne tout le temps, et qu’entre deux ordinateurs les blancs gagnent toujours, c’est une perte d’intérêt de l’homme pour les échecs.

    1. Lol ! Je comprends votre point de vue. Sauf que le jeu d’échecs entre deux humains, c’est une suite d’énigmes que chacun pose à tour de rôle à l’autre. C’est ça qui rend ce jeu si excitant. Il faut résoudre des dizaines d’énigmes créées par un adversaire en chair et en os tout en lui créant les siennes. Le GO, un autre jeu intelligent, ne permet pas ça et donc ne produit pas cette constante excitation.

      La perte d’intérêt certaine, c’est une partie d’échecs contre un ordinateur puisqu’il n’a pas l’intention de vous poser une énigme mais de jouer le meilleur coup. A ce jeu-là il est sûr de gagner.

      Et quand l’ordinateur raisonnera au lieu de calculer, pour en revenir au thème de ce débat, ce ne sera plus intéressant de raisonner contre lui. Il gagnera à tous les coups. Il nous faudra l’attaquer sur un point où il demeure faible : l’imagination, la créativité. Et quand un jour il sera capable de créativité (grâce à nous) nous devrons l’attaquer sur un autre point où nous sommes plus forts que lui. Je ne vois pas lequel… Mais au moins le chercher nous permettra de mieux nous connaître !🙂

  20. Évidement que mon ordinateur est un con, il viens de me demander d’insérer le disque suivant sans même me dire de retirer l’autre! En plus ce n’est pas la première fois que je dois lui donner les CD il ne retiens strictement rien. Je pense que même dans 10 ans il continuera à me les demander sans rien apprendre.

      1. Il ne « pense pas en bits », les données qu’il exploite sont représentées en bits. Comme les nôtres sont des champs électriques, des associations de neurones, etc. On se comprend pourtant très bien car on finit toujours par convertir ces signaux en langage courant. Vous remarquerez que tout est fait en informatique pour que l’ordinateur soit incapable de dialoguer avec ses utilisateurs. Pourtant MSDOS était sur la bonne voie en permettant un dialogue – codé – avec la machine. Cette interface presque naturelle a été remplacée dans Windows par le trio infernal clavier-souris-écran, le plus souvent inutile, alors que la communication humaine passe depuis la nuit des temps par la voix, donc par le dialogue…

    1. Ce n’est pas l’ordinateur qui est con c’est le concepteur du logiciel que vous utilisez, qui lui fait faire des conneries. Ici c’est Windows, bien connu pour être une daube. En fait, l’ordinateur dispose d’une grande intelligence (à travers la logique booléenne présente dans tous les microprocesseurs) mais depuis 1950 elle est jugulée par les informaticiens qui ne veulent surtout pas qu’il se mette à programmer à leur place.

      Pour que l’informaticien existe IL FAUT QUE L’ORDINATEUR SOIT IDIOT !

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion / Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion / Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion / Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion / Changer )

Connexion à %s