Path: ...!3.us.feeder.erje.net!2.eu.feeder.erje.net!feeder.erje.net!proxad.net!feeder1-2.proxad.net!cleanfeed1-b.proxad.net!nnrp3-1.free.fr!not-for-mail Subject: Re: ChatGPT Newsgroups: fr.rec.bricolage References: <65151eb2$0$7764$426a74cc@news.free.fr> <65171e88$0$25956$426a74cc@news.free.fr> <6517d349$0$7479$426a34cc@news.free.fr> <651849bc$0$7772$426a74cc@news.free.fr> <65190bf1$0$6441$426a34cc@news.free.fr> From: Stephane Legras-Decussy Date: Sun, 1 Oct 2023 20:01:43 +0200 User-Agent: Mozilla/5.0 (X11; Linux i686; rv:52.0) Gecko/20100101 Thunderbird/52.9.1 MIME-Version: 1.0 In-Reply-To: <65190bf1$0$6441$426a34cc@news.free.fr> Content-Type: text/plain; charset=utf-8; format=flowed Content-Language: en-US Content-Transfer-Encoding: 8bit Lines: 60 Message-ID: <6519b407$0$7762$426a34cc@news.free.fr> Organization: Guest of ProXad - France NNTP-Posting-Date: 01 Oct 2023 20:01:43 CEST NNTP-Posting-Host: 176.147.180.178 X-Trace: 1696183303 news-4.free.fr 7762 176.147.180.178:58252 X-Complaints-To: abuse@proxad.net Bytes: 2818 On 10/01/2023 08:04 AM, robby wrote: > il ressemble a un petit génie autiste qui aurait tout appris sans > comprendre, restitue en bon élève, et quand il se plante c'est avec une > certitude crasse, ou en mélangeant des sens différents. comme tous les humains... sauf que l'humain de base n'est même pas un petit génie autiste. > un manipulateur faussaire ferait ça, alors que chatGPT n'a aucune > malice: son boulot est juste de produire des textes vraisemblables. procès d'intention. si tu fais le test en aveugle, tu es incapable de différencier d'un humain bourré de malice. c'est le test de Turing. > en histoire, tu peux lui demander de te parler de rois qui n'existent > pas, ou de leur dynastie. il aura toujours des réponses, souvent > détaillées. comme les humains > >> >> si on prend 2s de recul, tous ce qu'on peut reprocher à chatGPT, >> peut l'être aussi à un humain. > > uniquement si on prend des définitions aussi floues que "parfois la > chose se trompe". définition pourtant admise pour juger les humains > non, c'est TOTALEMENT FAUX. c'est pourtant prouvé par le test de Turing. tu es incapable de savoir si un intervenant sur usenet est un humain ou chatGPT... même au bout de 2 mois de chat... >> le plus troublant est que chatGPT peut faire des fautes d'inattention... > > non, tu projette. erreur classique de surinterprétation des résultats > positifs ou négatifs. > C'est un programme qui calcule des maths. il n'y a pas de notion > d'attention. > bah si... chatgpt c'est neuronal... tu es neuronal aussi... c'est normal de faire le même genre d'erreur.