Disclaimer : c’est super long, et pas forcément très facile à suivre, mais j’ai quand même publié ce looong billet car le sujet me semble passionnant. J’espère qu’il le sera pour vous aussi !
Le Web 2.0 est un vrai régal pour les interfaces utilisateurs : on a enfin réussi à “casser” le moule HTML bien restrictif pour arriver à des interfaces bien plus interactives, des designs plus sympa.
Les sites 2.0 sont également beaucoup plus ouverts, avec XML, les standards, les mashups…
Il reste toutefois une partie de l’architecture technique de la plupart de ces sites qui reste pourtant de mon point de vue très basique et primitive : la partie dite “métier”, celle qui travaille en coulisses, fait la liaison avec la base de données, et définit les règles “métier” de fonctionnement de l’application. En gros, les “algorithmes” de fonctionnement du site, hors interface homme/machine.
Or, je sais pas ce que vous en pensez, mais cette partie là est le plus souvent traitée d’une manière archi-classique, digne d’un programme de gestion fait en Cobol.
Hormis dans quelques cas où les règles à appliquer sont relativement complexes (des enchères ebay, par ex), ou nécessitent une certaine intelligence (la déduction d’un trajet routier sur ViaMichelin), on a le plus souvent affaire à des sites qui se contentent de sauvegarder en base les données manipulées par l’interface utilisateur, sans intelligence ni valeur ajoutée particulière.
Le coeur des applis encore sous exploité
Je le vois bien en tant que prof : l’informatique de gestion a toujours été la branche “punitive” à la sortie des écoles d’ingénieurs, ne recrutant la plupart du temps que les queues de classement. Ce fait, rajouté aux politiques budgétaires,plaçant l’interface utilisateur en priorité dans les dépenses, a pour conséquence d’avoir des parties métiers, pourtant cruciales dans les applis Web, quasiment toujours sous exploitées.
Un site comme Amazon, par exemple, avait pas mal investi à ses débuts dans l’exploitation des “chemins de navigation” sur le site pour personnaliser la page d’accueil en fonction des goûts de chacun. Ils avaient pris pas mal d’avance, mais sauf erreur de ma part, rien n’a vraiment évolué depuis, la piste privilégiée étant plutôt (comme tout le monde..) l’intelligence “communautaire”, où chacun peut y aller de son petit commentaire ou sa petite critique, pour guider l’acheteur. Très 2.0 😉 mais essentiellement lié à l’intervention de l’utilisateur.
Un site d’e-commerce, techniquement, c’est aujourd’hui 90% de mécanismes archi connus de gestion. Certes, le plus important reste d’avoir un outil de vente parfaitement fiable, mais il est je pense un peu dommage d’en rester à des outils, des algos, des modes de fonctionnement qui n’ont finalement quasi pas évolué depuis les premiers logiciels de gestion commerciale.
De rares expérimentations
Les seules fonctions un minimum innovantes que j’ai pu voir ces derniers temps sont celles du type “vous aimerez aussi…“. Mais cet outil fonctionne en général soit selon des données explicites (organisation préalable en catégories), soit avec des techniques de datamining assez primitives (avec un raisonnement style “rechercher les paniers d’achat contenant tel article, et regarder les autres produits du panier).
Et pourtant, il y aurait beaucoup à faire, en considérant cette partie “métier” d’une manière un peu plus valorisante qu’une corvée incontournable d’informaticien de gestion !
J’ai eu l’occasion dans le cadre de mes activités professionnelles d’étudier/discuter autour de pistes absolument passionnantes. Bon, je vous préviens, c’est des trucs pas forcément très sexy ni très simples à aborder. Et pourtant, bon sang, qu’est ce que ça ouvre comme perspectives !
Graphes et automates
Tout d’abord, des travaux de R&D autour de la théorie des graphes et la modélisation d’automates à états finis.
Bon, je suppose que rien qu’en disant ça, j’ai fait fuir tout le monde. Pour les deux qui restent : c’est un moyen extrêmement intéressant de modéliser des cheminements d’utilisateurs dans un site Web, d’y appliquer des règles prédictives, des aménagements, des actions à accomplir en fonction de comportements qui peuvent être très complexes.
Par exemple : si un utilisateur se connecte très souvent mais ne finit par se convertir en membre que parce qu’il découvre tel cheminement dans le site, les repérer, enregistrer, analyser, voire anticiper ces mouvements en adaptant le contenu du site pour le guider dynamiquement plus efficacement vers cette “voie de conversion”.
En poussant ces mécanismes à l’extrême, on pourrait obtenir des sites complètement mutants en fonction des actions utilisateurs.
Il existe bien des manières d’amener ainsi l’utilisateur vers un “chemin” défini au préalable par diverses règles d’ergonomie et/ou de marketing ; mais l’utilisation de graphes à un avantage qui change tout : il est parfaitement possible de détacher la conception de ces graphes de contraintes de développement.
Autrement dit, les marketeux pourraient expérimenter, tester, concevoir leurs propres graphes de navigation dans le site, sans avoir besoin de demander en permanence aux informaticiens de coder des outils sur mesure.
Web et I.A.
Autre piste que j’ai pu explorer ces derniers jours : les systèmes experts. Les plus anciens s’en souviennent, c’était le gros “buzz” du R&D informatique de la fin des années 80.
Des systèmes autoadaptifs, se “nourrissant” du savoir qu’on leur inculquait petit à petit pour arriver a une certaine autonomie, avec des raisonnements de plus en plus poussés. D’abord lancés dans la grande utopie de l’intelligence artificielle, avec des résultats que l’on qualifiera pudiquement de… mitigés :D, les quelques équipes de recherche restant en place se sont réorientées dans des systèmes industriels, où les données à analyser étaient moins complexes et plus “objectives”.
Ces systèmes étaient très délicats à mettre en place, car il était très simple, avec une logique implacable d’ordinateur, d’arriver à faire dire aux moteurs d’inférences utilisés des abberrations basés sur des raisonnements transitifs du type “Ce qui est rare est cher. Du pétrole pas cher c’est rare. Donc, du pétrole pas cher, c’est cher” 😉
Mais ces systèmes experts ont beaucoup évolués, et on arrive aujourd’hui à un paradoxe pas très loin de la phrase à non sens que je viens de vous donner 😉 : les systèmes experts n’ont jamais été aussi fiables, et pourtant plus personne n’y pense, parce que ça a été une impasse à l’époque où les investisseurs y avaient mis de l’argent il y a 20 ans, emportés dans le grand rêve d’une intelligence purement synthétique. Et pourtant, le seul vrai frein d’adoption de ces systèmes experts aujourd’hui, c’est le manque d’interface, interactive, intuitive et grand public. Ca ne vous dit pas quelque chose, en remontant au début de cet article ?
Les mash-ups de demain ?
Si vous m’avez suivi, je suis donc persuadé qu’il y a un grand avenir a fusionner ces travaux de recherches parfois trop vite oubliés ou incompris, avec le Web d’aujourd’hui, ou plutôt de demain. J’adorerai voir des systèmes experts au service, par exemple, de futur acheteurs perdus dans le méandre d’un catalogue de produits multimédia, ou à la place des bêtes écrans de recherches rudimentaires des réseaux sociaux actuels.
Vers des sites web plus intelligents, s’impliquant activement et dynamiquement pour assister l’utilisateur, autoadaptifs, s’adaptant à la logique de l’utilisateur lambda et non l’inverse : les techniques sont là, elles sont au chaud dans les labos de recherche en informatique. Un “mashup” entre interface Web 2.0 et systèmes experts, ça vous dit ? Si un investisseur passant par hasard par là a envie de sortir quelques sous dans ce type de projets, vous savez où me joindre 😉