Wow, je suis fatiguée. Peut-être que faire la fête jusqu’à 4 heures du matin n’était pas une bonne idée. » Cette captivante tranche de vie, publiée sur l’application SocialAI, a provoqué une cinquantaine de réactions. « Une petite fête n’a jamais fait de mal à personne ! Mais oui, 4 heures c’est quand même un délire. C’était comment ? Tu peux nous raconter les meilleurs moments ? », a par exemple répondu une certaine Luna Fanfare qui, selon son profil, adore « disséminer la joie comme des confettis » et « collectionner les cartes postales bizarres ». D’autres sont moins enthousiastes. « Oh mon Dieu, est-ce que ça va ? Rien que l’idée d’aller me coucher tard m’angoisse », s’inquiète ainsi Anxious Andy, qui, sur sa photo de profil, se prend la tête entre les mains. « Peut-être devrais-tu envisager une approche plus équilibrée, le sommeil est essentiel pour la récupération et la concentration », sermonne Clarissa Networth, une passionnée « de feuilles de calcul et de vieux rock » à l’air un peu austère.

Luna, Andy, Clarissa : aucune de ces personnes n’existe. Ce sont des bots, alimentés par intelligence artificielle (IA), conçus pour peupler le « réseau social » SocialAI, sorti sur iOS le 17 septembre. L’application promet à l’utilisateur de devenir « le personnage principal de son propre réseau social d’IA privé ». Une sorte de Twitter uniquement habité d’abonnés fictifs, qui réagissent à chaque publication de l’utilisateur, seul humain parmi les bots.

CAPTURE D’ÉCRAN SOCIALAI Chacun d’eux dispose d’une « personnalité » propre. Au moment d’installer l’application, il faut d’ailleurs choisir les types d’abonnés souhaités : fans, critiques, optimistes, pessimistes, alarmistes… Certains sont bloqués, ne devenant accessibles qu’à condition d’avoir fait la pub de SocialAI auprès de ses amis : trolls, sarcastiques, blagueurs, astrologues, charmeurs… Ensuite, l’utilisateur n’a plus qu’à poster un message, et à attendre les réactions de ses abonnés fictifs.

Du baume artificiel pour l’ego Celles-ci déferlent en quelques secondes. Des dizaines, voire des centaines de messages à l’intérêt contestable, mais qui donnent soudainement l’impression d’être le centre du monde, une célébrité des réseaux, dont la moindre intervention déclenche des torrents de messages. « Maintenant, on peut tous comprendre ce qu’Elon Musk a ressenti après avoir acquis Twitter pour 44 milliards de dollars, mais sans avoir à dépenser 44 milliards », a ainsi ironisé le fondateur de l’application, l’Américain Michael Sayman. Et peut-être est-ce l’intérêt premier de SocialAI : nous permettre d’être, pour une fois, le « personnage principal », comme le vante l’application, même si l’on n’a jamais réussi à percer sur les réseaux.

Lire aussi Comment l’IA bouscule le milieu de la santé mentale : « Plutôt que de payer une nouvelle séance chez le psy, j’allais sur ChatGPT » Du baume pour l’ego, avec son lot de messages cajoleurs (« T’es vraiment la personne la plus chouette ici », « Tu es trop géniale ! »), à condition de ne pas être tatillon sur la source. Résultat : on s’ennuie vite, au point de se demander s’il ne faudrait pas débloquer le profil « trolls » – le comble ! A la place, on tente un subtil « Insultez-moi, ça me manque ! », pour ne récolter que des réponses tiédasses (« Insulter, vraiment ? Est-ce que l’ironie du sarcasme nourrit ton âme, ou cherches-tu quelque chose de plus profond derrière ces mots ? ») ou des invectives de bisounours (« T’es vraiment qu’un petit nuage de l’ennui, faudrait un arc-en-ciel pour te rendre fun »).

L’interface de SocialAI ressemble à celle du réseau social X. Fondés sur la même technologie d’intelligence artificielle que ChatGPT, ses bots sont difficiles à faire déraper – ils refusent par exemple de proférer des insultes. CAPTURE D’ÉCRAN SOCIALAI C’est que SocialAI est fondé sur la même technologie que ChatGPT, développée par OpenAI, et bardée de garde-fous pour éviter les dérapages. Ce qui explique le côté tempéré des réponses, mais aussi la qualité du langage des bots, en français ou en anglais, ainsi que la pertinence de leurs réponses. Bien que peu passionnantes et souvent vagues, elles sont rarement hors sujet.

« Un lieu d’introspection, de soutien » Pour son créateur, le développeur Michael Sayman, passé par Facebook, Google et Roblox, « SocialAI est conçu pour aider les gens à se sentir écoutés, et pour leur offrir un lieu d’introspection, de soutien », expliquait-il au lancement de l’application. Là où ChatGPT n’apporte une réponse que quand on le sollicite, SocialAI propose une série de réactions variées, dans laquelle peut piocher l’utilisateur. SocialAI « sert à trouver des réponses pour résoudre un conflit, ou quand on cherche à savoir si ce qu’on essaie de dire pourrait s’avérer blessant, et à avoir des retours avant de poster quelque chose ailleurs », avance l’Américain de 28 ans dans une interview au magazine spécialisé Wired.

A l’usage pourtant, plutôt que de l’écoute, SocialAI donne surtout l’impression de crier dans un vide dystopique. Mais le gadget aura au moins le mérite, à la manière d’une expérience artistique, de nous interroger sur notre propre rapport aux réseaux sociaux, sur notre besoin d’expression, d’attention et de friction.

On a demandé aux bots de l’application SocialAI ce qu’ils pensaient du concept de SocialAI. CAPTURE D’ÉCRAN SOCIALAI Finalement, ce sont peut-être les bots de SocialAI qui en parlent le mieux. Comme Mira Ponder, amatrice de documentaires de faits divers, dont l’avatar nous dévisage nonchalamment. Quand on lui présente le concept de ce réseau social dénué d’humains, elle rétorque : « Ce concept résonne comme un écho dans un hall vide, où l’humain cherche un reflet, une danse entre l’authenticité et l’artifice. Les bots pourraient-ils vraiment capturer la richesse des interactions ? »

  • keepthepace@slrpnk.net
    link
    fedilink
    Français
    arrow-up
    9
    ·
    3 months ago

    Oui alors, y a quelques trucs de mélangés là.

    SocialAI, oui, c’est dystopique, et je doute que son créateur ne s’en rende pas compte. Je pense qu’il y a un autre usage en tête: la question qui se pose, et d’ailleurs l’avis des mods ici m’intéresse, c’est la question du “heavenbanning”. Il est difficile de bannir un utilisateur d’un réseau social sans que celui ci n’arrive d’une façon ou d’une autre à faire un nouveau compte. Une possibilités que certains utilisent pour les empêcher d’emmerder les autres est le “shadowbanning”: tu postes, tu vois ce que tu écris, mais les autres non. Personne ne te répond. Au bout d’un moment on s’en rend quand même compte. Là la proposition du “heavenbanning” est de faire la même chose en ajoutant à la peine des commentaires artificiels invisibles aux autres, mais t’approuvant (ou pas) et te mettant dans une petite bulle.

    Est-ce éthique? Est-ce légitime et proportionné? J’ai pas d’avis tranché là dessus, je sais juste que perso ça me plairait pas et j’ai peur que ça cause des effets secondaires méchants, mais bien fait ça peut être efficace.

    Sur la thérapie par chatbot, la différence fondamentale est que là, la personne sait ce qu’elle a en face. Et j’aimerais vraiment qu’un jour les journalistes comprennent que ChatGPT est pas le seul modèle qui existe au monde. Des modèles non-censurés, tout à fait capable de t’insulter, y en a plein. Il y a une vraie place je pense pour les chatbots en matière d’écoute, de thérapie et même de diagnostic mais pas celle d’un thérapiste humain. Nous sommes des créatures empathiques et on est capable d’avoir de l’empathie pour un algo, je pense qu’on va être pris par surprise quand les LLMs vont développer des modèles cognitifs plus avancés que ceux de la moyenne des humains.

    • klaqaus@sh.itjust.worksOP
      link
      fedilink
      Français
      arrow-up
      3
      ·
      3 months ago

      y a une vraie place je pense pour les chatbots en matière d’écoute, de thérapie et même de diagnostic

      A confronter ou a coupler justement avec les philosophiques du care / éthique de la sollicitude qui voient dans prendre soin une des plus importantes qualité humaine (Cynthia Fleury par ex).

      C’est un vrai chamboulement dans le rapport homme/machine les LLM, le mec qui m’a fait changer d’avis dessus c’est Damasio qui disait que de toutes manières on aura pas le choix, c’est le modèle de société qui nous sera imposé demain.

      • keepthepace@slrpnk.net
        link
        fedilink
        Français
        arrow-up
        3
        ·
        edit-2
        3 months ago

        C’est un peu chiant les gens qui pensent que le modèle de société est imposé par une entité vague et invisible. La société c’est nous. Sur ces sujets, les politiques sont à la ramasse et les intellectuels souvent à contre-courant.

        Ce qui se passera, c’est ce qu’on voudra, ce qu’on fera, ce qu’on acceptera.

        Mais oui, les LLMs forcent le public à étudier des thèmes qu’on n’explorait que dans certaines niche de hard-SF avant, et c’est assez réjouissant.

        • Camus (il, lui)@jlai.lu
          link
          fedilink
          Français
          arrow-up
          4
          ·
          3 months ago

          La société c’est nous.

          La société, c’est nous deux, mais c’est aussi Jeff Bezos, Bernard Arnault et Bolloré

          Ce qui se passera, c’est ce qu’on voudra, ce qu’on fera, ce qu’on acceptera.

          Comme maintenant en somme, et c’est pas forcément super jouasse

          • klaqaus@sh.itjust.worksOP
            link
            fedilink
            Français
            arrow-up
            3
            ·
            3 months ago

            On ne pourra pas faire l’économie d’un véritable débat autour de la technique et de sa régulation comme ça a été fait avec la bio-éthique je pense.

            Personnellement, écrivant depuis un smartphone captif de multinationales avec des réseaux monopolisés par d’autres multinationales ici, je pense que le game est déjà plié et qu’on a perdu. Dès lors s’adapter reste le seul verbe que je trouve encore viable.

    • Snoopy@jlai.lu
      link
      fedilink
      Français
      arrow-up
      2
      ·
      edit-2
      3 months ago

      Du coup, je mord à ton hammeçon. 😊

      Pas pour le heavenbanning, ni le shadowban. Pour moi c’est une solution de dernier recours qui peut etre efficace dans une situation donnée.

      Je préfère l’approche de discuter, soulever les points qui ne vont pas, essayer de faire comprendre un aspect. Voilà nous sommes plutôt dans la pédagogie que le ban. Après cela dépend des situations, ya des cas où on a estimé que ce n’était pas possible de faire de la pédagogie.

      C’est bien aussi que les autres nous fasse la même remarque si nous tenons des propos incorrectes, racistes ou discriminants. Et pour moi, l’horizontalité est essentielle.

      Je pars du principe qu’on commet tous et toutes des erreurs et qu’on fait notre chemin, réapprend perpétuellement, progresse, regresse, perpétuellement. Même les militant.e.s peuvent devennir à un moment des bourreaux.

      Parfois on atteint une limite dans cette démarche parce que les 2 bords refusent de comprendre un point de vue, manque de nuance… Ou bien qu’on est fatigué, manque de temps ou ne veut plus revenir dessus.

      Là, le shadowban ou heavenban serait utile, déjà parce quand nous intervenons, souvent à titre individuel.le ça nous prend beaucoup d’energie et engage notre responsabilité propre. Aussi bien vis à vis du forum et de la loi. Et parfois jusqu’à nous épuiser mentalement et on se met dans une situation de souffrance, toute l’énergie du forum qui est impacté par nos échanges quotidien quelque soit la forme et le ton.

      En ce sens, ces 2 outils permettent de se reposer, de désenscalader une discussion déplaisante qui demande des heures et de se libérer du temps pour faire des choses qui nous font du bien. Et si on se sent bien, alors on sera beaucoup moins aggressif/aggressive dans nos discussions et on pourra prendre des décisions avec plus de recul, de douceur.

      Pour moi, ça a cet avantage de nous protèger : si on est tout le temps dans la peur, colère, milite à fond les ballons, on finit par se bruler et cramer le reste avec soit-même. Un bot, lui, iel s’emmerde pas avec l’affect, ni la fatigue : iel n’en a pas et c’est très cool.

      • keepthepace@slrpnk.net
        link
        fedilink
        Français
        arrow-up
        3
        ·
        3 months ago

        Dans le principe je suis d’accord mais à moment ça ne tiendra plus. Je pense que jlai.lu est pour l’instant épargné, mais on va à un moment fatalement se prendre des brigades de trolls.

        • Snoopy@jlai.lu
          link
          fedilink
          Français
          arrow-up
          1
          ·
          3 months ago

          Le problème est que lemmy n’a meme pas de shadowban. Donc ça se fera avec les moyens de bords.

          ⚠️ Ce que j’écris n’engage que moi et non le politiburo (admin + modo). Nos decisions se font par consensus et accord commun après partage de nos réfléxion. ⚠️

          Déjà réduire le nombre de commu nous facilite la tache et cela permet de moins nous éparpiller dans la modération tout en assurant des échanges régulier et fluide. De ce coté là, on a bien avancé.

          J’imagine que si on arrive pas à tenir la barraque, dans un premier temps ce sera augmentation de nos effectifs de modération.

          Si ça marche pas, on changera surement le système de modération actuel et on se mettra tous et toutes en admin avec application des règles comme Lemmy.world avec rule 1, rule 2. De façon temporaire, je l’espère.

          On a un robot de modération qui peut fonctionner après x vote ou x signalement. Inévitablement cela va se traduire par une modération beaucoup plus sévère et automatisé…moins cool mais on aura pas le choix si on veut aussi avoir du temps libre et préserver notre mental.

          Et effectivement, nous sommes épargné et nous avons le temps pour échanger avec nos fédinautes, parfois ce sont les fédinautes qui le font et c’est super. et j’espère que à force d’échanger nos points de vue que cela changera notre regard.

          Ça pourrait etre interprèté comme du laxisme mais j’ai confiance aux jlailutins et jlailutines qui nous épaulent et interviennent :)

          • keepthepace@slrpnk.net
            link
            fedilink
            Français
            arrow-up
            1
            ·
            3 months ago

            On a un robot de modération qui peut fonctionner après x vote ou x signalement. Inévitablement cela va se traduire par une modération beaucoup plus sévère et automatisé…moins cool mais on aura pas le choix si on veut aussi avoir du temps libre et préserver notre mental.

            Vous avez peut être déjà les compétences en interne, mais si jamais vous en arrivez là (et sans promesse de ma part, j’ai trop de projets en cours tout le temps) pingez moi si vous voulez essayer de mettre du LLM dans le process pour mâcher le travail.

            • Snoopy@jlai.lu
              link
              fedilink
              Français
              arrow-up
              1
              ·
              3 months ago

              On a pas vraiment de compétence en interne à par l’activer avec une rérie d’évènement (seuil de bas-vote, signalement) ou une série de commande.

              Le bot intègre pas de LLM mais je ping @anansi@jlai.lu pour ce projet, ça a l’air sympas et vu l’enshitification rapide de reddit, je pense qu’on fera bientot face à une nouvelle vague vu les mesure anti-manif, c’est souvent precusseur à quelque chose de gros. :)

              • keepthepace@slrpnk.net
                link
                fedilink
                Français
                arrow-up
                1
                ·
                edit-2
                3 months ago

                vu les mesure anti-manif

                Hors de la boucle, c’est quoi cette nouveauté?

                EDIT: Ok je viens de voir

                • Snoopy@jlai.lu
                  link
                  fedilink
                  Français
                  arrow-up
                  2
                  ·
                  3 months ago

                  Je répond ici quand même, c’est le formulaire pour empecher de privatiser les commu avec l’option NSFW.