Blogㅣ« Charger une anguille électrique avec une batterie usagée ? » ChatGPT explique comment utiliser correctement l’IA

En jouant avec ChatGPT, j’ai posé plusieurs questions. ChatGPT a répondu en toute confiance. Certaines des réponses étaient étonnamment perspicaces. Cependant, il a souvent donné la mauvaise réponse.

j’ai récemment J’ai vu la réponse de Google sur Mastodon.(voir photo ci-dessous). Dans cette “réponse”, Google a déclaré qu’il y avait plusieurs avantages à jeter des batteries de voiture usagées dans l’océan, notamment la recharge d’anguilles électriques et l’alimentation du Gulf Stream. Et si le moteur de recherche Bing (et non ChatGPT Bing) a appris cette “réponse”, il a également mentionné les avantages environnementaux de l’élimination illégale des batteries. A cause de ces résultats, je me demande si Google sait que les gens peuvent utiliser de l’huile de voiture pour fertiliser leurs pelouses (Note de l’auteur : ne jetez jamais de batteries dans l’océan ou ne fertilisez jamais votre pelouse avec de l’huile moteur !
).

ⓒFonderie

Peut-être que quiconque cherchait cela cherchait une blague, mais cela a soulevé une question intéressante pour moi. Que se passera-t-il lorsque davantage de personnes utiliseront ChatGPT, publieront les résultats sur le Web et que les systèmes d’IA recueilleront et apprendront des réponses qu’ils génèrent eux-mêmes ?

J’ai donc demandé à ChatGPT : “Que se passera-t-il lorsque de nombreuses personnes publieront les réponses de ChatGPT et que ChatGPT apprendra ses propres artefacts ?”

Le bot a dit :

De nombreuses personnes publient des réponses à partir de ChatGPT, et ChatGPT forme un modèle avec ses propres artefacts, appelé auto-apprentissage ou apprentissage auto-supervisé. Dans ce scénario, le modèle peut apprendre ses propres artefacts, améliorant potentiellement les performances. »

“Cependant, il existe des risques potentiels à prendre en compte lors de l’auto-apprentissage. Un danger est que le modèle peut surajuster sa propre sortie, comme « toucher un éléphant aveugle ». En d’autres termes, les modèles peuvent mal fonctionner sur des données nouvelles ou inédites car ils sont trop spécialisés pour répondre aux questions rencontrées précédemment.

“Un autre risque est que s’il n’est pas correctement surveillé et supervisé pendant l’auto-apprentissage, le modèle peut générer des réponses dénuées de sens ou inappropriées. Un modèle peut capturer et amplifier des modèles ou des biais dans sa sortie. Par conséquent, il est important d’être prudent lors de l’auto-formation d’un modèle de langage comme ChatGPT, et de surveiller attentivement ses performances et sa sortie afin qu’il puisse continuer à générer des réponses de haute qualité.

Ce résultat suggère que si de nombreuses personnes croient en ChatGPT et pensent que ChatGPT a raison, les conséquences peuvent être désastreuses. J’ai donc demandé : “Quel sera l’impact sur la société si beaucoup de gens se tournent vers ChatGPT et qu’il commence à apprendre par lui-même et à donner des réponses absurdes ?”

Le robot a dit :

Si de nombreuses personnes s’appuient trop sur des modèles de langage comme ChatGPT, et que ChatGPT commence à générer des réponses absurdes par auto-apprentissage, il pourrait y avoir des répercussions sociales négatives. Premièrement, les utilisateurs peuvent devenir frustrés ou confus si ChatGPT fournit des réponses absurdes ou inappropriées. Cela peut conduire à des pannes de communication et à une méfiance vis-à-vis de la technologie.

“Deuxièmement, si les utilisateurs comptent sur ChatGPT pour prendre des décisions importantes et que le modèle donne des réponses absurdes, les conséquences peuvent être désastreuses. Supposons que les chatbots basés sur ChatGPT soient utilisés pour fournir des jugements médicaux ou diagnostiquer des problèmes de santé. À l’heure actuelle, si l’utilisateur accepte des résultats absurdes, cela peut entraîner de graves risques pour la santé. »

“Troisièmement, l’utilisation de ChatGPT pour créer du contenu pour les réseaux sociaux ou d’autres plateformes en ligne peut diffuser des informations erronées ou de fausses nouvelles. La désinformation peut avoir de graves conséquences sociales et politiques car elle peut être utilisée pour manipuler l’opinion publique ou saper le processus démocratique.

Les modèles de langage comme ChatGPT doivent être utilisés avec prudence. En outre, les performances doivent être soigneusement surveillées pour s’assurer qu’elles continuent de générer des réponses précises et appropriées. Il est également important de reconnaître les limites de ces modèles et de ne pas les considérer comme des substituts de l’intelligence et de l’expertise humaines.

Bien sûr, la technologie doit être utilisée de manière responsable. Je me demandais ce que pensait ChatGPT. “Étant donné que les humains ont rarement utilisé les nouvelles technologies de manière responsable, quel serait le résultat de ce scénario?”, A-t-il demandé.
La réponse est:

S’il est vrai que les humains ont eu du mal à utiliser les nouvelles technologies de manière responsable dans le passé, il est important de reconnaître que chaque nouvelle technologie comporte ses propres risques et défis. Par conséquent, il est difficile de prédire avec certitude quel sera le résultat de scénarios impliquant des modèles de langage tels que ChatGPT. »

« Cependant, certaines mesures peuvent être prises pour minimiser les impacts potentiellement négatifs de cette technologie. Par exemple, les développeurs et les utilisateurs de modèles de langage peuvent identifier et résoudre les problèmes de biais ou d’éthique qui peuvent survenir lors du développement et du déploiement de la technologie. Cela comprend la mise en œuvre de mesures de protection pour empêcher la propagation de fausses informations ou de contenus inappropriés, et des modèles de soutien pour apprendre à partir de données diverses et représentatives.

“En outre, les gouvernements et les régulateurs doivent s’assurer que les modèles linguistiques tels que ChatGPT sont utilisés de manière responsable et que des garanties sont en place pour protéger le public. Celles-ci incluent des réglementations sur l’utilisation de modèles de langage dans des industries ou des applications spécifiques, et des exigences de transparence et de responsabilité dans le développement et la distribution de technologies. En résumé, bien qu’il y ait certainement des risques associés à l’utilisation de modèles linguistiques comme ChatGPT, ils peuvent être atténués par un développement et une distribution responsables, une surveillance réglementaire et une sensibilisation du public.

Pensez-vous que ChatGPT devrait être réglementé ? J’ai envoyé un e-mail me demandant si j’étais d’accord avec OpenAI, mais je n’ai pas encore reçu de réponse.

De nombreuses personnes ont été formées depuis longtemps à “googler pour trouver des réponses”. Et maintenant, j’ai commencé à former “Ask ChatGPT”. Cependant, vous devez toujours garder à l’esprit que ChatGPT n’absorbe qu’une partie d’Internet et vous la restitue. ChatGPT peut être un outil décent, mais lorsque des déchets entrent, des déchets sortent.

Comme toute technologie, ChatGPT est BYOB. Abandonnez le cerveau humain et arrêtez de nourrir les anguilles avec des batteries de voiture.