Re : les IA à la con
Ça aurait été plus drôle avec Lapine.
Vous n’êtes pas identifié. Veuillez vous connecter ou vous inscrire.
Le Vrai Asile » La déconne » les IA à la con
Vous devez vous connecter ou vous inscrire pour pouvoir répondre
Ça aurait été plus drôle avec Lapine.
Ça existe déjà depuis au moins 2 ans.
Cf. Funscript.
Ça aurait pu être des noirs hein
La Eiffel tower au milieu de la Seine avec un Boeing qui vient se cracher contre c'est un peu toó much c'est vrai
Paris 13ème ça aurait pu marcher
C'est bien naze.
ce film va avoir la Côte !
surtout en Bretagne
Putain le doublage
C'est Aurore Bergé l'héritière des droits.
Tout s'explique.
Le scénar est fait par IA aussi ?
https://www.lepoint.fr/societe/lucie-l- … 833_23.php
la première version de Lucie, mise en ligne ce jeudi, montre des lacunes importantes.
Par exemple, lorsqu'un utilisateur lui soumet un calcul simple comme 5 x (3 + 2), elle fournit deux réponses erronées successives : d'abord « 17 », puis « 50 ».
Autre exemple : interrogée sur le nombre de « r » dans le mot anglais « strawberry », elle affirme qu'il n'y en a qu'un, alors qu'il y en a trois.
Vive la France
Et l'Occident qui vient de se faire ridiculiser en IA par les CHINOIS.
Alors qu'ils n'ont aucune diversité.
Vive la France
Perso j' utilise codestral tous les jours et c'est français !
si vous avez pas encore testé deepseek ça encule la version payante de chattegpt par expérience (au niveau langage en tout cas, et coding aussi apparemment)
autre différence vos données seront récupérées par les enculés de chinois au lieu des enculés d'américains
le bouzin a été fabriqué par des autistes chinois "as a side project" avec 10 millions de dollars seulement, laissant openAI, meta et surtout ceux qui ont des billes dedans en PLS
Après ils mentent surement sur comment ils ont calculés leur modèle pour ne pas dévoiler leur cartes nvidia interdites d'importation.
Une partie de la technique a été reproduite (pour 30$) :
https://github.com/Jiayi-Pan/TinyZero
En gros, pour entrainer ChatGPT, des millions de questions/réponses furent écrites par des petites mains.
Là ils entrainent leur modèle en le récompensant s'il respecte 2 conditions :
1)à condition que le code qu'il génère est validé automatiquement par un compilateur
2)à condition qu'il génère du texte expliquant ce qu'il fait (sorte de monologue intérieur)
Comme pour un élève : donne la solution mais explique-moi étape par étape.
Donc pareil pour la reproduction, ils lui donnent 4 chiffres et lui demandent de les manipuler pour trouver un résultat, comme dans "des chiffres et des lettres" :
https://github.com/Jiayi-Pan/TinyZero
Et ils vérifient le calcul automatiquement facilement.
Le fait de penser "étape par étape" était déjà connu, ça a améliorait les perfs car ça donnait davantage de contexte pour trouver la réponse (même si ce contexte est généré par le LLM).
Une des nouveautés c'est le Reinforcement Learning, autrement dit la validation automatique des résultats et don automatique d'une récompense si c'est bon.
Je crois qu'il y a aussi des nouveautés d'architecture mais je suis pas assez calé là dessus pour comprendre.
Vous devez vous connecter ou vous inscrire pour pouvoir répondre
Le Vrai Asile » La déconne » les IA à la con
Propulsé par PunBB, supporté par Informer Technologies, Inc.
Généré en 0,075 secondes, 79 requêtes exécutées