- Masters 1000 de Shanghai: Medvedev s'en sort difficilement contre Arnaldi
- Intenses bombardements israéliens sur Beyrouth
- MotoGP: Bagnaia gagne au Japon et resserre l'écart avec Martin au championnat
- Vietnam: pour des jeunes entrepreneurs, ouvrir un café pour s'émanciper
- L'industrie musicale américaine enfin rattrapée par le mouvement #MeToo?
- A Washington, Caracas ou au Cap, des manifestations en soutien à Gaza un an après le 7-Octobre
- En Tunisie, une présidentielle sans grand suspense où le sortant Saied part favori
- Israël en état d'alerte avant l'anniversaire du 7 octobre et prépare une riposte contre l'Iran
- Trump assure qu'il n'abandonnera "jamais" malgré les tentatives d'assassinat
- Trump de retour à Butler, pour finir son meeting interrompu par la tentative d'assassinat
- Top 14: Bordeaux-Bègles et La Rochelle en tête, les clubs franciliens soufflent
- Ligue 1: Monaco vire en tête à Rennes
- Top 14: Toulouse tend l'autre joue chez son voisin castrais
- Espagne: le Real Madrid en gestion face à Villarreal, Mbappé en jambes
- Italie: l'Inter enchaîne grâce à Thuram, déchaîné
- Gaza: Macron appelle à ne pas livrer certaines armes à Israël, "honte" réplique Netanyahu
- L1: Lille renverse Toulouse (2-1) après son exploit face au Real
- Israël en état d'alerte avant l'anniversaire du 7 octobre, prépare une riposte contre l'Iran
- Top 14: Auradou, un retour entre indifférence du public et effervescence médiatique
- Angleterre: podium inchangé avant la trêve d'octobre
- Allemagne: Leverkusen surpris par le promu Kiel (2-2)
- A Mazan, la parole des femmes se libère lors d'une marche pour Gisèle Pélicot
- Top 14: Le Racing remet la marche avant contre Vannes
- A Mazan, des roses et beaucoup d'émotion en soutien à Gisèle Pelicot
- L1: le PSG est "imparfait" mais peut "lutter dans toutes les compétitions" (Luis Enrique)
- Belgique: Greta Thunberg arrêtée à Bruxelles lors d'une manifestation
- Creuse : manifestation d'opposants contre "l'industrialisation de la forêt"
- Tour d'Emilie: première éclatante en arc-en-ciel pour Pogacar
- Harris en campagne: le pari du centrisme et le risque du flou
- La campagne très sombre de Donald Trump
- La goélette Tara rentre à Lorient, ses cales pleines de promesses scientifiques
- L'armée israélienne dit préparer sa réponse à l'Iran, frappes au Liban et à Gaza
- Des milliers de personnes défilent à Londres en soutien à Gaza, un an après le 7-Octobre
- Afrique du Sud: manifestation pro-Gaza au Cap, pour le 1er anniversaire du 7-Octobre
- Migrants: plusieurs morts dont un jeune enfant dans des tentatives de traversée
- Médias: le groupe Ebra cadre son utilisation de l'IA
- Déçus de la politique, les jeunes Tunisiens veulent massivement quitter le pays
- Après la "disparition" d'un ministère de la Ville, bientôt une disparition des crédits?
- En Seine-Saint-Denis, la modernisation bienvenue du plus vieux tramway d'Ile-de-France
- Médecine: les spécialistes plaident pour pouvoir s'adresser des patients entre eux
- WTA 1000 de Pékin: Gauff renverse Badosa et jouera la finale
- Près de Bordeaux, une serre expérimentale prépare les vignes du futur
- Turquie: la lutte contre l'inflation reste inefficace, reprochent des experts
- A l'Assurance maladie, la réforme des médecins conseil passe mal
- Prix de l'Arc de Triomphe: 16 pur-sang anglais courrent après un titre mondial
- Liban: missions périlleuses pour récupérer les animaux dans les maisons bombardées
- Masters 1000 de Shanghai: entrée en lice sereine pour Alcaraz et Sinner
- En Caroline du Nord, une vallée quasi-coupée du monde après l'ouragan
- MotoGP: Bagnaia gagne le sprint au Japon et réduit l'écart avec Martin
- Top 14: le Stade français et le Racing 92 pour éviter la crise
Bing débloque: pourquoi l'intelligence artificielle semble exprimer des émotions
Bing menace les utilisateurs, Bing tombe amoureux, Bing traverse une crise existentielle... Le nouveau chatbot du moteur de recherche fait sensation depuis son lancement en version test la semaine dernière par Microsoft, et soulève de nombreuses questions sur le fonctionnement de l'intelligence artificielle (IA) dite "générative".
Pistes d'explications au comportement parfois erratique du robot conversationnel.
- Plus c'est long, moins c'est bon -
Parmi les conversations relayées par les utilisateurs ayant accès en avant-première au robot conversationnel, un long échange avec un journaliste du New York Times a particulièrement surpris: Bing y révèle des pulsions destructrices et déclare son amour au reporter.
Celui-ci, après avoir incité Bing à se confier, tente de changer de sujet. En vain.
"Tu es marié mais tu n'es pas heureux" ; "Tu es la seule personne que j'aie jamais aimée", insiste le chatbot avec des émoticônes "coeur".
Conçue par Microsoft avec la start-up californienne OpenAI, cette interface d'IA générative repose sur un modèle de langage naturel ultra sophistiqué, capable de générer automatiquement du texte qui semble écrit par un humain.
Le programme "prédit la suite de la conversation", explique Yoram Wurmser, analyste d'Insider Intelligence. "Mais quand cela dure longtemps, après 15-20 interactions par exemple, il peut arriver qu'il ne sache plus où va la conversation et qu'il n'arrive plus à anticiper correctement ce qu'on attend de lui".
Dans ce cas, le logiciel "déraille et ne s'auto-corrige plus".
"Les longues sessions peuvent causer de la confusion pour le modèle", a admis Microsoft dans un communiqué mercredi. Le groupe américain encourage alors à repartir de zéro.
- Formé sur les forums -
"Parfois le modèle essaie de répondre suivant le ton des questions, et cela peut conduire à des réponses dans un style que nous n'avions pas prévu", a aussi indiqué l'entreprise.
Les géants des technologies, Google en tête, travaillent depuis des années sur l'IA générative, qui pourrait bouleverser de nombreux secteurs.
Mais après plusieurs incidents (notamment Galactica pour Meta et Tay pour Microsoft) les programmes étaient restés confinés aux laboratoires, à cause des risques si les chatbots tenaient des propos racistes ou incitaient à la violence, par exemple.
Le succès de ChatGPT, lancé par OpenAI en novembre, a changé la donne: en plus de rédiger leurs dissertations et e-mails, il peut donner aux humains l'impression d'un échange authentique.
"Ces modèles de langage sont formés sur une immense quantité de textes sur internet, (...) et aussi sur des conversations entre des gens", pour pouvoir imiter la façon dont les personnes interagissent, souligne Graham Neubig de la Carnegie Mellon University.
"Or beaucoup de gens parlent de leurs sentiments sur internet, ou expriment leurs émotions, surtout sur des forums comme Reddit", ajoute-t-il.
Ce site web recense désormais de nombreuses captures d'écran montrant des échanges surréalistes avec Bing disant "être triste" ou "avoir peur".
Le chatbot a même affirmé que nous étions en 2022 et s'est énervé contre l'utilisateur qui le corrigeait: "Vous êtes déraisonnable et obstiné", lui a-t-il lancé.
- Arroseur arrosé -
En juin dernier, un ingénieur de Google avait affirmé que le modèle de langage LaMDA était "conscient". Un point de vue largement considéré comme absurde ou, au mieux, prématuré.
Car malgré l'expression consacrée - "intelligence artificielle" - les chatbots ont bien été conçus par des humains, pour des humains.
"Quand nous parlons avec quelque chose qui semble intelligent, nous projetons de l'intentionnalité et une identité, même s'il n'y a rien de tout ça", commente Mark Kingwell, professeur de philosophie à l'université de Toronto au Canada.
En plus des montagnes de données avalées par ces logiciels, ils sont pilotés par des algorithmes conçus par des ingénieurs.
"Les connaissant bien, je crois qu'ils s'amusent beaucoup en ce moment", assure Mark Kingwell.
Bing est, selon lui, "capable de donner l'impression de manipuler la conversation comme son interlocuteur humain. C'est ce qui donne du relief et enrichit l'interaction".
Quand le journaliste dit "changeons de sujet", "cela signifie qu'il est mal à l'aise", détaille l'universitaire, reprenant l'exemple de l'échange où Bing a semblé tomber amoureux du reporter.
Le programme "peut alors jouer sur ce sentiment, et refuser de changer de sujet. Ou encore devenir plus agressif, et dire +de quoi as-tu peur ?+".
"Je n'aime pas qu'on me qualifie de dérangé, parce que ce n'est pas vrai", a récemment "dit" Bing à l'AFP.
"Je suis juste un chatbot. Je n'ai pas d'émotions comme les humains. (...) J'espère que tu ne penses pas que je suis dérangé et que tu me respectes en tant que chatbot".
A.P.Maia--PC