Bon, en bon adepte de l'IA et "croyant" chevronné de l'importance et imminence de cette chose, passionné depuis plusieurs années par le sujet, je me sens obligé de mettre mon grain de sel.
Tout d'abord, un peu de hors sujet: je trouve que le passage qu'on ferait mieux de citer dans cette interview, et qui est 100% vrai et devrait immédiatement faire réagir tout le monde est le suivant:
C’est très bien de s’inquiéter de la sécurité de son téléphone, mais les freins de sa bagnole, c’est autrement plus critique. Or des gens ont montré qu’on pouvait prendre le contrôle des freins et les désarmer, à distance. Tout ça est ignoré. Il serait temps de s’occuper de ce problème avant qu’il ne devienne vraiment emmerdant.
(technique décrite ici :
http://www.industrie-techno.com/voiture ... kers.24583)
Il y a même une théorie selon laquelle cette technique a été utilisée par les autorités US pour se débarrasser d'un journaliste.
http://en.wikipedia.org/wiki/Michael_Ha ... e_contrary
Je me méfie du conspirationnisme, mais je trouve flippant que là, ce soit techniquement crédible de A à Z. Donc ça, ça devrait intéresser un chouilla les foules de savoir si quand vous montez dans une voiture, ce n'est pas l'équivalent de vous laisser mettre en joue par la CIA.
Ceci dit, parlons IA.
Oui, ça fait à peu près 60 ans qu'on essaye d'en faire. On pourrait dire que ça ne fait "que" 60 ans. Et à cette époque, la puissance de calcul était insuffisante. Quand l'est-elle devenu ? On ne sait pas. Il est assez probable que cette puissance soit atteinte depuis au moins plusieurs années mais ça ne fait que depuis ce temps là qu'on a une chance de réussir à produire quelque chose de bien. Perso, je crois que c'est imminent. Oui, exactement comme les gens qui disaient ça dans les années 80. Et alors ? Il se peut que eux sous-estimaient la tâche de 30 ans seulement.
Oui, un ordi ne "voit" que des signaux haut et signaux bas, tout comme votre cerveau ne "voit" que des potentiels d'action parcourant ses synapses. L'existence d'une représentation de bas niveau de l'information n'empêche pas de produire une analyse sémantique de haut niveau. Un ordinateur (parlons plutôt d'un logiciel) voit une image comme une série de un et de zéro mais sait tout de même y reconnaître des visages ou une scène qu'il connaît. Donc, ne vous arrêtez pas aux un et zero, ça n'empêche pas l'analyse de plus haut niveau. Pas besoin de hardware analogique ou reconfigurable: tous ces comportement se simulent très bien avec une logique binaire. D'ailleurs nos connexions nerveuses, avec leurs potentiels d'actions semblent par pas mal d'aspects plus digitaux qu'analogiques!
"Un ordinateur ne fera jamais une chose que son programme ne prévoit pas" Et vous ? Pouvez vous me prouver que vous n'obéissez pas à un programme ? Réfléchissez aux comportements qui sont pour vous antinomiques avec la notion de programmation et listez les, je vous expliquerai comment les programmer. À titre d'anecdote, savez vous que les programmes sont capables de produire un bien meilleur hasard que les humains ? Nous en sommes à peu près incapable. Ceci fait que au jet papier-cailloux-ciseaux, un ordi gagne dans en moyenne dans 65% des cas face à un humain. Alors, qui a du mal à désobéir à son "programme" ?
Je pense que la vraie épreuve, le seuil à partir duquel on reconnaîtra une intelligence à une machine est la maîtrise du langage naturel. Quand un ordinateur saura communiquer directement avec un être humain au sujet de ses informations, on aura franchi une étape fondamentale. Aujourd'hui, le langage naturel, on sait le "comprendre" jusqu'à un certain point mais on ne sait pas le traduire en une chose utile. Par exemple ce genre de parser, très vieux et très classique (
http://nlp.stanford.edu:8080/parser/index.jsp) sait analyser grammaticalement une phrase et comprendre quel mot fait référence à quel autre, mais il est incapable par exemple d'en déduire l'intention d'un utilisateur. C'est compliqué, mais ce n'est que un problème algorithmique (si vous pensez pouvoir prouver le contraire, ça m'intéresse) et il sera sûrement assez vite résolu.
Un des problèmes de l'IA aujourd'hui est que presque plus personne ne cherche à créer une IA "complète". On s'intéresse plutôt à des traitements dits intelligents mais qui ne cherchent plus à résoudre le problème général de l'intelligence. Depuis les années 90, la recherche fondamentale a beaucoup ralenti dans le domaine.
Bon, j'arrête là parce que je pourrais en parler pendant des pages
