![](/static/253f0d9b/assets/icons/icon-96x96.png)
![](https://jlai.lu/pictrs/image/6713fff6-8d0f-4e85-97f3-9704bbc3c561.webp)
Bonjour
Bonjour
Je valide ça léchée très bien. Tu peux toi aussi avoir des priorités.
Très intéressant. Cela paraît évident aujourd’hui mais à l’époque il fallait y penser !
A demain
C’était la dernière semaine cool non ?
Ils doivent avoir de jolies fringues non ?
Peut être pas une raison pour se faire mousser non ?
Le résultat est très discutable. La simplification des questions me semble être un biais important. Par contre l’idée est très bien.
Il me semble qu’il y avait 1ko de ram …
Ça existe la survie avec électricité ?
Je me coucherai beaucoup moins bête ce soir. Merci
Bonjour et merci pour cet AMA Voici quelques questions que je me pose.
Y a t il un intérêt à continuer l’apprentissage d’un modèle Mistral 7b par exemple ? Si oui est ce que c’est faisable en local sur une machine qui fait tourner le RN si on parle “d’ajouter” un petit corpus de spécialisation par exemple.
Quel est l’intérêt pour Mistral de donner son modèle ? D’ailleurs Il me semble qu’ils ont arrêté. Llama est libre aussi. Quel retour de la communauté attendent- ils ?
Il semblerait que chatgpt soit devenu bon aux échecs. J’ai donc entendu parler de sondes qui semblent montrer que le RN c’est fait une représentation de l’échiquier. Qu’est ce que ces sondes et comment sont elles construites ?
Concernant les prompts qu’elle serait ton explication au fait que de générer des tokens aléatoire en début de réponse amélioré le résultat ? Dans la même idée pourquoi quand on demande de répéter à l’infini le RN retourne une partie du corpus ?
Enfin est il facile de retourner un RN ? C’est à dire de donner une réponse et avoir le prompt correspondant ?
Et merci d’avance !
Je suis en train de tester voxelibre et mineclonia. Et surtout comment héberger un serveur sur rpi4. Ça occupe.
Les premiers tests sont assez incroyables. Avec le modèle Mistral 7B, sur CPU, la réponse est quasiment aussi rapide que ChatGpt. Un peu moins bonne (qualité). Mais surtout, la dernière version que Mistral 7B essayée à partir de python/transformer, tournait sur le GPU et plantait parfois. La pas de soucis (je n’ai pas fait beaucoup de tests non plus). Sur quelques tests techniques, Mistral 7B se plante allègrement, Mistral 8x7B donne un résultat concis et juste (un peu lent), Mistral 70B rame je n’ai pas attendu le résultat. Clairement à essayer, très simple d’emploi, et à mon avis peut remplacer chatgpt pour des fonctionnalités basiques. Bon par contre je vais tester sur des machines un peu plus basiques avant de conclure.
J’en ai des bien plus vieux que ça pour cette raison précisément. En pratique je ne regarde jamais, mais un jour peut-être !
Plutôt contre aussi. Les données étant déjà accessibles c’est donc par principe.
Il n’y avait pas eu un vote ? Il me semblait qu’on avait changé d’heure une dernière fois je ne sais plus quand.
Bravo
Bon anniversaire et merci à tous pour vos contributions