Dans un déclaration émise par l’entreprise, il a été révélé que GPT-4 n’est pas totalement fiable. Selon son propre OpenAI, GPT-4 souffre de problèmes de raisonnement, est encore très naïf et échoue sur des problèmes difficiles. Cela renforce encore la nécessité pour les humains de manipuler la machine avec attention et prudence.
PUBLICITÉ
« À mesure que les systèmes d’IA deviennent plus répandus, il deviendra de plus en plus essentiel d’atteindre des degrés élevés de fiabilité dans ces interventions. Pour l’instant, il est essentiel de compléter ces limitations par des techniques de sécurité au moment du déploiement, telles que la surveillance des abus », a déclaré la société.
GPT-4 est efficace mais les problèmes persistent
Bien qu'elle admette des problèmes internes au système, l'entreprise a souligné que les performances de l'outil sont efficaces. En outre OpenAI a embauché une série de professionnels pour utiliser l’IA de manière critique et envoyer des commentaires sur les améliorations du système.
Selon des tests internes, le ChatGPT-4 est 40% meilleur que la dernière version. UN OpenAI a déclaré que cela réduisait de 82 % la tendance de l'IA à répondre aux commandes sensibles au contenu par rapport à GPT-3.5. Dans les cas techniques ou préjudiciables à l'humain, comme les demandes médicales, l'automutilation ou les sujets confidentiels, l'outil a amélioré ses performances de 29 %. De cette façon, ils ont réduit les chances d’utiliser Chat de manière nuisible.