Path: ...!2.eu.feeder.erje.net!feeder.erje.net!proxad.net!feeder1-2.proxad.net!cleanfeed3-b.proxad.net!nnrp5-1.free.fr!not-for-mail Date: Sun, 1 Oct 2023 08:04:32 +0200 MIME-Version: 1.0 User-Agent: Mozilla/5.0 (X11; Linux x86_64; rv:102.0) Gecko/20100101 Thunderbird/102.15.1 Subject: Re: ChatGPT Content-Language: fr Newsgroups: fr.rec.bricolage References: <65151eb2$0$7764$426a74cc@news.free.fr> <65171e88$0$25956$426a74cc@news.free.fr> <6517d349$0$7479$426a34cc@news.free.fr> <651849bc$0$7772$426a74cc@news.free.fr> From: robby In-Reply-To: <651849bc$0$7772$426a74cc@news.free.fr> Content-Type: text/plain; charset=UTF-8; format=flowed Content-Transfer-Encoding: 8bit Lines: 60 Message-ID: <65190bf1$0$6441$426a34cc@news.free.fr> Organization: Guest of ProXad - France NNTP-Posting-Date: 01 Oct 2023 08:04:33 CEST NNTP-Posting-Host: 91.168.150.105 X-Trace: 1696140273 news-4.free.fr 6441 91.168.150.105:43037 X-Complaints-To: abuse@proxad.net Bytes: 3055 Le 30/09/2023 à 18:15, Stephane Legras-Decussy a écrit : > On 09/30/2023 09:50 AM, robby wrote: > >> Le problème, c'est qu'il y a zero garantie de vérité, > > quelle différence avec un texte écrit par un humain ? tout. il ressemble a un petit génie autiste qui aurait tout appris sans comprendre, restitue en bon élève, et quand il se plante c'est avec une certitude crasse, ou en mélangeant des sens différents. et sur les textes scientifiques, il fait carrément du pipotage, inventant des articles, auteurs, affiliations, journaux. et pire: parfois l'auteur et le journal existe, dans le domaine visé, mais l'article est inventé. un manipulateur faussaire ferait ça, alors que chatGPT n'a aucune malice: son boulot est juste de produire des textes vraisemblables. en histoire, tu peux lui demander de te parler de rois qui n'existent pas, ou de leur dynastie. il aura toujours des réponses, souvent détaillées. > > si on prend 2s de recul, tous ce qu'on peut reprocher à chatGPT, > peut l'être aussi à un humain. uniquement si on prend des définitions aussi floues que "parfois la chose se trompe". > en conclusion, c'est extraordinaire : oui, c'est d'autant plus surprenant qu'il n'était pas fait pour ça, et il y a des articles pour analyser, et creuser ( pourquoi, mais d'abord, a quel point c'est vrai ou pas ). par contre, attention au binarisme généralisant de tes catégories: "extraordinaire"  vs  "paraitre extraordinaire"  vs "extraordinaire sur certaines catégories de taches" vs "extraordinaire sur certains tests". > > au pire c'est un humain normal, au mieux c'est un humain brillant. non, c'est TOTALEMENT FAUX. > le plus troublant est que chatGPT peut faire des fautes d'inattention... non, tu projette. erreur classique de surinterprétation des résultats positifs ou négatifs. C'est un programme qui calcule des maths. il n'y a pas de notion d'attention. -- Fabrice