Forum
Notifications
Retirer tout
Questions & Réponses
1
Posts
1
Utilisateurs
0
Reactions
5
Vu
Début du sujet
Les LLMs sont des modèles de langage, pas des calculatrices. Ils génèrent du texte en prédisant le mot suivant le plus probable, sans réelle compréhension du monde réel ou des mathématiques.
Les "hallucinations" surviennent lorsqu'ils combinent des informations de manière plausible mais incorrecte .
Posté : 16/02/2026 2:47 pm