OpenAI veut que ChatGPT arrête de devenir fou
OpenAI veut que ChatGPT arrête de devenir fou

OpenAI veut que ChatGPT arrête de devenir fou

OpenAI travaille enfin sur les paramètres de ChatGPT pour créer un meilleur programme d’interaction éliminant toute hallucination de l’IA. Si vous n’avez jamais entendu parler d’hallucination par l’IA et que vous avez déjà utilisé ChatGPT, vous en avez peut-être déjà fait l’expérience. 

 

Est-il déjà arrivé que lorsque vous utilisez ChatGPT ou n’importe quel chatbot IA, le système commence simplement à bavarder n’importe quelle information et contenu au lieu de l’invite qui a été insérée. Eh bien, ce phénomène est appelé une hallucination de l’IA rendant la désinformation.

 

ChatGPT a corrigé les lacunes du système

 

Dans un effort pour changer et réduire ces sorties, OpenAI a finalement trouvé une solution et la fonctionnalité s’appelle la supervision de processus. Il pourrait y avoir une confusion entre les fonctions de supervision du processus et de supervision des résultats où, dans cette dernière, le système est récompensé pour la conclusion finale de la tâche. Cependant, dans le premier cas, qui est la nouveauté, le système est récompensé à chaque étape de la tâche. OpenAI dans un article de blog officiel a publié des exemples mathématiques qui ont abouti à une meilleure précision en général, cependant, la société suggère qu’elle ne peut pas commenter la façon dont la fonction de supervision des processus fonctionnera dans le domaine des mathématiques.

OpenAI a déjà mentionné et corrigé les lacunes du logiciel et a averti les utilisateurs en déclarant que ChatGPT peut être inexact avec les informations diffusées. “Même les modèles de pointe sont enclins à produire des faussetés – ils ont tendance à inventer des faits dans les moments d’incertitude. Ces hallucinations sont particulièrement problématiques dans les domaines qui nécessitent un raisonnement en plusieurs étapes, puisqu’une seule erreur logique suffit à faire dérailler une solution beaucoup plus vaste. Détecter et atténuer les hallucinations est essentiel pour améliorer les capacités de raisonnement.

Avec cet effort pour rendre l’expérience utilisateur plus transparente et transparente, OpenAI vise à construire une technologie qui peut refléter des réponses basées sur les interactions humaines et structurer le système pour comprendre les humains et faire des efforts réactifs en conséquence. Certains experts suggèrent toujours que le logiciel nécessite plus de précision et de transparence tout en incitant à une réglementation du logiciel.

Check Also

TECNO présente le CAMON 30 Pro 5G de la série des CAMON 30 sur le marché ivoirien

TECNO présente le CAMON 30 Pro 5G de la série des CAMON 30 sur le marché ivoirien

La marque mondiale de technologie innovante, TECNO, annonce ce 18 avril 2024 de la la …

Leave a Reply

Your email address will not be published. Required fields are marked *