Flo semble avoir quelques petits problèmes avec sa plateforme DotClear. Voilà le troisième commentaire que je lui envoie et qu'elle n'a apparemment pas reçu. Il s'agissait d'une remarque sur la manière astucieuse dont le robot Alice construisait ses phrases sans en avoir à comprendre le sens. La méthode ressemble beaucoup à celles utilisées dans les conversations en langue étrangère quand on veut éviter de montrer à son interlocuteur qu'on ne l'a pas compris.
Bien sûr, ce n'est qu'une première impression et il faudrait mettre le nez dans le moteur du langage AIML pour voir comment tout cela est bâti. Mais il est amusant de voir qu'on peut donner l'illusion d'une conversation - même si le principe aboutit à de nombreuses contradictions - à partir de quelques grands schémas relationnels de base.
Ainsi, à la question "Do you dream sometimes?" Alice retiendra le verbe "dream" et proposera la réponse toute faite : "I dream of flying." Mais si on lui demande : "Do you have dreams sometimes?" elle privilégiera le verbe "have" et répondra "No I don't think I have" suivi du reste de la question. Si la phrase commence par "So" elle répond par "Interesting deduction" ; par "Because", "Good reason" ; "I have no" : "Would you like to have it?"
Tout cela me rappelle un souvenir d'enfance. Nous passions nos vacances dans un petit village de Catalogne. Mon grand'père avait d'infinies discussions avec un agriculteur du coin. Immanquablement chaque matin, comme deux grands amis, ils se rencontraient dans le potager. Aucun des deux ne savait le moindre mot de la langue de l'autre. Lorsque ma grand'mère s'étonnait de ce dont ils avaient pu discuter si longtemps, mon grand'père répondait en riant : "Mais je n'en sais rien du tout !"
Aucun commentaire:
Enregistrer un commentaire