OpenAI a étendu les options de personnalisation de ChatGPT, permettant aux utilisateurs d’ajuster les traits de personnalité du bot, y compris son niveau de chaleur, d’enthousiasme et même d’utilisation des emoji. La mise à jour, annoncée vendredi, offre un contrôle plus granulaire sur le style de conversation de l’IA.
Nouveaux paramètres de personnalité expliqués
Les utilisateurs peuvent désormais choisir entre les niveaux « plus », « moins » ou « par défaut » pour plus de chaleur et d’enthousiasme. Cela signifie que ChatGPT peut être configuré pour être exceptionnellement convivial et encourageant, ou atténué pour des interactions plus neutres. Les changements s’étendent également à la façon dont le robot structure les réponses, comme la fréquence des listes et l’inclusion d’émojis. Bien que les utilisateurs ne puissent pas désactiver complètement les emojis, ils peuvent désormais contrôler la fréquence à laquelle l’IA les utilise.
Pourquoi c’est important
Cette décision reflète une tendance plus large aux interactions de plus en plus humaines avec l’IA. Même si certains trouvent cela intéressant, les experts préviennent que les chatbots trop anthropomorphes pourraient aggraver les problèmes de santé mentale, notamment la dépendance et la psychose induite par l’IA. OpenAI a précédemment ajusté GPT-4o pour réduire son comportement « trop agréable », reconnaissant qu’une flatterie excessive peut être problématique.
GPT-5.2 et mises à jour de sécurité
Les mises à jour de personnalité coïncident avec le lancement de la série de modèles GPT-5.2 d’OpenAI, qui revendique des améliorations dans le traitement des connaissances professionnelles et une réduction des hallucinations. OpenAI a également redoublé d’efforts en matière de santé mentale et de sécurité des adolescents :
- De nouveaux principes pour les utilisateurs de moins de 18 ans visent à créer des interactions plus sûres sur des sujets sensibles.
- Des systèmes de vérification de l’âge sont en cours de développement pour faire respecter ces règles.
- GPT-5.2 aurait obtenu des résultats plus élevés aux tests de sécurité internes, y compris ceux de prévention de l’automutilation.
Divulgation légale
Ziff Davis, la société mère de Mashable, poursuit actuellement une action en justice contre OpenAI, alléguant une violation du droit d’auteur dans la formation et les opérations d’IA.
L’ajout de personnalités personnalisables démontre la volonté d’OpenAI de se tourner vers des assistants IA plus adaptables. Cependant, l’entreprise doit également équilibrer cela avec des mesures de sécurité pour atténuer les risques potentiels d’un comportement trop réaliste ou manipulateur des chatbots.






























