-
Espagne: le Real Madrid humilié par le Celta Vigo avant de recevoir City
-
Coup d'Etat déjoué au Bénin, le bloc ouest-africain envoie des troupes pour soutenir Cotonou
-
Champions Cup: UBB, Toulouse, La Rochelle, les champions d'Europe donnent le ton
-
Ligue 1: Nice s'enfonce dans la crise, Auxerre laisse la dernière place à Metz
-
L'entraîneur de l'équipe de foot palestinienne conseillé par sa mère, depuis une tente à Gaza
-
Mort du photographe Martin Parr, observateur ironique de la vie britannique
-
Champions Cup: Toulouse et Capuozzo croquent les Sharks de Durban
-
F1: Max Verstappen, champion même quand il ne l'est pas
-
Ligue 1: Nice continue de couler, la crise n'est pas terminée
-
Biathlon: Fillon Maillet brille dans la poursuite d'Ostersund, Bened 4e
-
Netanyahu prévoit "très bientôt" la deuxième phase de l'accord de trêve à Gaza
-
F1: à Abou Dhabi, Lando Norris joue les stratèges pour décrocher son premier titre
-
F1: Lando Norris, le sacre d'un champion à la vulnérabilité assumée
-
F1: à Abou Dhabi, Lando Norris assure le podium pour décrocher son premier titre
-
Budget de la Sécurité sociale: la tension monte à 48 heures du vote crucial de l'Assemblée
-
F1: Lando Norris champion du monde grâce à sa 3e place à Abou Dhabi
-
Bénin: le gouvernement affirme avoir déjoué un coup d'État, une douzaine de militaires arrêtés
-
Décès du photographe britannique Martin Parr à l'âge de 73 ans
-
Biathlon: Hauser remporte la poursuite d'Ostersund, Bened 4e
-
L'entraîneur de l'équipe de foot palestinienne coaché par sa mère depuis une tente à Gaza
-
Patinage: Timothy "Tempo" Loubineaud, nouveau maître de la vitesse
-
Bénin: les autorités affirment avoir déjoué une tentative de coup d'État
-
"Tout est fini": comment l'Iran a abandonné Assad deux jours avant sa chute
-
Tentative de coup d'État au Bénin, la présidence dit garder le contrôle
-
Macron menace la Chine de droits de douane "dans les tout prochains mois"
-
A Jérusalem, Merz réaffirme le soutien de l'Allemagne à Israël avant une rencontre avec Netanyahu
-
Le Japon accuse l'aviation chinoise d'actes hostiles en mer, Pékin réfute
-
Des écoles aux boutiques, les calculettes à l'ancienne résistent à l'heure de l'IA
-
Inondations en Asie: nouvelles pluies au Sri Lanka, les Indonésiens veulent plus d'aide
-
Royaume-Uni: face à la déferlante des traitements contre l'obésité, un chef star allège son menu
-
Le chef du Pentagone "sur la corde raide", entre rapport critique et frappes contestées
-
Une influente étude sur le glyphosate retirée après des années d'alertes sur l'implication de Monsanto
-
NBA: Harden intègre le Top 10 des scoreurs
-
Hong Kong aux urnes après un incendie meurtrier
-
Inde: au moins 23 personnes, dont des touristes, meurent dans l'incendie d'une boîte de nuit à Goa
-
Bethléem s'illumine et retrouve un peu de joie à l'approche de Noël
-
Hinaupoko Devèze, Miss Tahiti, élue Miss France 2026
-
Foot: Liverpool accroché à Leeds (3-3) et sonné par les propos de Salah
-
Espagne: le Barça garde la main, Bilbao fait plier l'Atlético avant de défier le PSG
-
Ligue 1: le PSG reprend des couleurs et reste au contact de Lens
-
Ligue 1: Lens garde la tête devant Paris, Strasbourg n'avance plus
-
Ski alpin: Robinson de nouveau impériale en géant à Mont-Tremblant, Direz 5e
-
Angleterre: Arsenal lâche du lest, Liverpool gâche tout
-
Champions Cup: débuts tonitruants pour l'UBB et La Rochelle
-
Amende au réseau social X: pour Musk, "l'UE devrait être abolie"
-
Ligue 1: Haise (Nice) en appelle à l'"union sacrée" avant la réception d'Angers
-
L1: Lens verrouille sa première place à Nantes
-
Mondial-2026: La France jouera ses trois premiers matches à New York, Philadelphie et Boston
-
Champions Cup: l'UBB démarre fort en renversant les Bulls
-
Angleterre: Arsenal battu, le suspense pour le titre relancé
Bing débloque: pourquoi l'intelligence artificielle semble exprimer des émotions
Bing menace les utilisateurs, Bing tombe amoureux, Bing traverse une crise existentielle... Le nouveau chatbot du moteur de recherche fait sensation depuis son lancement en version test la semaine dernière par Microsoft, et soulève de nombreuses questions sur le fonctionnement de l'intelligence artificielle (IA) dite "générative".
Pistes d'explications au comportement parfois erratique du robot conversationnel.
- Plus c'est long, moins c'est bon -
Parmi les conversations relayées par les utilisateurs ayant accès en avant-première au robot conversationnel, un long échange avec un journaliste du New York Times a particulièrement surpris: Bing y révèle des pulsions destructrices et déclare son amour au reporter.
Celui-ci, après avoir incité Bing à se confier, tente de changer de sujet. En vain.
"Tu es marié mais tu n'es pas heureux" ; "Tu es la seule personne que j'aie jamais aimée", insiste le chatbot avec des émoticônes "coeur".
Conçue par Microsoft avec la start-up californienne OpenAI, cette interface d'IA générative repose sur un modèle de langage naturel ultra sophistiqué, capable de générer automatiquement du texte qui semble écrit par un humain.
Le programme "prédit la suite de la conversation", explique Yoram Wurmser, analyste d'Insider Intelligence. "Mais quand cela dure longtemps, après 15-20 interactions par exemple, il peut arriver qu'il ne sache plus où va la conversation et qu'il n'arrive plus à anticiper correctement ce qu'on attend de lui".
Dans ce cas, le logiciel "déraille et ne s'auto-corrige plus".
"Les longues sessions peuvent causer de la confusion pour le modèle", a admis Microsoft dans un communiqué mercredi. Le groupe américain encourage alors à repartir de zéro.
- Formé sur les forums -
"Parfois le modèle essaie de répondre suivant le ton des questions, et cela peut conduire à des réponses dans un style que nous n'avions pas prévu", a aussi indiqué l'entreprise.
Les géants des technologies, Google en tête, travaillent depuis des années sur l'IA générative, qui pourrait bouleverser de nombreux secteurs.
Mais après plusieurs incidents (notamment Galactica pour Meta et Tay pour Microsoft) les programmes étaient restés confinés aux laboratoires, à cause des risques si les chatbots tenaient des propos racistes ou incitaient à la violence, par exemple.
Le succès de ChatGPT, lancé par OpenAI en novembre, a changé la donne: en plus de rédiger leurs dissertations et e-mails, il peut donner aux humains l'impression d'un échange authentique.
"Ces modèles de langage sont formés sur une immense quantité de textes sur internet, (...) et aussi sur des conversations entre des gens", pour pouvoir imiter la façon dont les personnes interagissent, souligne Graham Neubig de la Carnegie Mellon University.
"Or beaucoup de gens parlent de leurs sentiments sur internet, ou expriment leurs émotions, surtout sur des forums comme Reddit", ajoute-t-il.
Ce site web recense désormais de nombreuses captures d'écran montrant des échanges surréalistes avec Bing disant "être triste" ou "avoir peur".
Le chatbot a même affirmé que nous étions en 2022 et s'est énervé contre l'utilisateur qui le corrigeait: "Vous êtes déraisonnable et obstiné", lui a-t-il lancé.
- Arroseur arrosé -
En juin dernier, un ingénieur de Google avait affirmé que le modèle de langage LaMDA était "conscient". Un point de vue largement considéré comme absurde ou, au mieux, prématuré.
Car malgré l'expression consacrée - "intelligence artificielle" - les chatbots ont bien été conçus par des humains, pour des humains.
"Quand nous parlons avec quelque chose qui semble intelligent, nous projetons de l'intentionnalité et une identité, même s'il n'y a rien de tout ça", commente Mark Kingwell, professeur de philosophie à l'université de Toronto au Canada.
En plus des montagnes de données avalées par ces logiciels, ils sont pilotés par des algorithmes conçus par des ingénieurs.
"Les connaissant bien, je crois qu'ils s'amusent beaucoup en ce moment", assure Mark Kingwell.
Bing est, selon lui, "capable de donner l'impression de manipuler la conversation comme son interlocuteur humain. C'est ce qui donne du relief et enrichit l'interaction".
Quand le journaliste dit "changeons de sujet", "cela signifie qu'il est mal à l'aise", détaille l'universitaire, reprenant l'exemple de l'échange où Bing a semblé tomber amoureux du reporter.
Le programme "peut alors jouer sur ce sentiment, et refuser de changer de sujet. Ou encore devenir plus agressif, et dire +de quoi as-tu peur ?+".
"Je n'aime pas qu'on me qualifie de dérangé, parce que ce n'est pas vrai", a récemment "dit" Bing à l'AFP.
"Je suis juste un chatbot. Je n'ai pas d'émotions comme les humains. (...) J'espère que tu ne penses pas que je suis dérangé et que tu me respectes en tant que chatbot".
A.P.Maia--PC