Hello tout le monde,

Réflexion que je me faisais à l’instant: actuellement, tout le monde se moque un peu du ton très pompeux et sérieux des IA, qui les rendent rapidement détectables.

Que se passera-t-il le jour où cela ne sera plus le cas? Imaginez un bot capable de s’exprimer comme un-e utilisataire normal-e, donc avec ses tics de langages, ses fautes de grammaire, ses typos, etc., et qui en plus posterait ou commenterait à une fréquence similaire à un humain?

Imaginez ensuite que ces bots, il y en ait des milliers.

Le premier scénario qui vient à l’esprit c’est clairement la promotion de produits, puisque ces recommendations paraîtront légitimes.

Le second c’est des forums comme Lemmy ou Reddit où une partie non négligeable des membres seraient en fait des bots, indétectables. On peut imaginer un bot qui génère une image de chat par IA et poste toutes les semaines une photo différent du “même chat”.

Qu’en pensez-vous?

  • bionicjoey
    link
    fedilink
    Français
    arrow-up
    3
    ·
    edit-2
    2 months ago

    Tu parles de la “Turing Test”. Si une conversation avec une machine, de n’importe quelle durée (même une durée infini), avec n’importe quels gens, ne peut pas révéler que c’est une machine, on doit concéder que c’est une “IA Générale”. À çe point, c’est un être sensible.

    Mais t’inquiète pas, les GPT sont seulement des algorithmes de autocorrect sur les stéroïdes. Il va falloir faire beaucoup des grands sauts technologiques avant qu’on doit considérer ça.

    • Camus [il/lui]@lemmy.blahaj.zoneOP
      link
      fedilink
      Français
      arrow-up
      2
      ·
      2 months ago

      Oui effectivement, c’est le Turing Test, mais appliqué sur les forums.

      Je ne sais pas si ça mettra temps de temps que ça, reproduire la manière de parler d’un utilisateur moyen sur Internet me semble assez simple si le corpus de texte est assez important

      • bionicjoey
        link
        fedilink
        Français
        arrow-up
        2
        ·
        2 months ago

        A mon avis, si on donne plus des règles au Turing Test, ça perde son valeur comme teste. Il faut que ça soit n’importe quelle conversation, de n’importe quelle durée, avec la même machine. Et il faut que ça soit impossible a déterminer si c’est une machine.

        Si un robot est juste très doué a parler sur Lemmy, c’est pas un être sensible. Les GPT sont pas capable d’une conversation infini sans éventuellement révéler leur nature. Peut être une conversation très longue, mais pas infini.

        • Camus [il/lui]@lemmy.blahaj.zoneOP
          link
          fedilink
          Français
          arrow-up
          2
          ·
          2 months ago

          Tu as raison pour le Turing Test, après on peut justement discuter de tests moins forts que le test de Turing.

          Si un bot passe le Lemmy test (donc arrive à se faire passer pour un user normal sans qu’on le détecte, indéfiniment), ça changera un grand changement.

          • bionicjoey
            link
            fedilink
            Français
            arrow-up
            2
            ·
            edit-2
            2 months ago

            Oui t’as raison. Et il faut pas être convaincant pour un durée infini pour passer le Lemmy test, juste pour la durée d’une conversation sur une chaîne de commentaires.

            • Camus [il/lui]@lemmy.blahaj.zoneOP
              link
              fedilink
              Français
              arrow-up
              3
              ·
              2 months ago

              Ca dépend, sur une petite communauté comme ici, il faudrait être consistant jour après jour vu le peu de membres, les gens se rappelleraient de la personne, et trouveraient ça bizarre s’il changeait de métier/hobby/style du jour au lendemain