Deutsch English Français Italiano |
<u194oa$1152v$3@dont-email.me> View for Bookmarking (what is this?) Look up another Usenet article |
Path: ...!eternal-september.org!news.eternal-september.org!.POSTED!not-for-mail From: efji <efji@efi.efji> Newsgroups: fr.rec.photo Subject: =?UTF-8?Q?Re=3a_=22intelligence_de_l=27IA=22_=28_was_pas_mal=2e=2e_?= =?UTF-8?Q?ma_photo_de_gu=c3=aape_!_=29?= Date: Thu, 13 Apr 2023 16:48:42 +0200 Organization: A noiseless patient Spider Lines: 47 Message-ID: <u194oa$1152v$3@dont-email.me> References: <u0r2k6$161g2$1@dont-email.me> <u13t5s$rq$2@shakotay.alphanet.ch> <u13u8n$2l71c$2@dont-email.me> <eu6-atxrEppmGwQfAd86ghgZ6-U@jntp> <u1434c$2m51m$2@dont-email.me> <V7D-ftKZW01N1SsnwN6bC96fsfM@jntp> <u152fv$u5t$2@shakotay.alphanet.ch> <u15kdi$a0f$1@shakotay.alphanet.ch> <GHZwkfaE71pJzuG-0Cq1Ui98tSw@jntp> <u170ac$mgf$1@shakotay.alphanet.ch> <atEsI8v5aRci4Id9R-BY-mjAvlg@jntp> MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8; format=flowed Content-Transfer-Encoding: 8bit Injection-Date: Thu, 13 Apr 2023 14:48:42 -0000 (UTC) Injection-Info: dont-email.me; posting-host="432d89252ee515f636602c8fcf0dcc5f"; logging-data="1086559"; mail-complaints-to="abuse@eternal-september.org"; posting-account="U2FsdGVkX1+JmNHFPhdrHTJqK1vNAB+4" User-Agent: Mozilla/5.0 (Macintosh; Intel Mac OS X 10.14; rv:102.0) Gecko/20100101 Thunderbird/102.9.1 Cancel-Lock: sha1:jR7CYq1eeR9Ds3uQRVAqaKBHEgo= In-Reply-To: <atEsI8v5aRci4Id9R-BY-mjAvlg@jntp> Content-Language: fr, en-US Bytes: 3770 Le 13/04/2023 à 09:21, Julien Arlandis a écrit : > Le 12/04/2023 à 21:20, robby a écrit : > > >> Le 12/04/2023 à 15:11, Richard Hachel a écrit : >>> Dernière chose, et la plus importante. 1. Qui entre les données? >> >> si on parle de chatGPT, alors: personne. >> en gros ça s'inspire de tout ce que ça trouve sur le web. >> >> encore une fois il n'y a aucun moteur logique, aucun raisonnement: >> chatGPT est purement un systeme *littéraire*, à produire du texte >> "dans le style de", sans jamais s'intéresser au contenu lui même, mais >> par contre en tenant massivement compte du contexte *littéraire* des >> morceaux de texte ( quels types de mots et phrases a côté de quels >> autres types, etc ). > > J'ai dû mettre à la poubelle mes tests de recrutement spécifiquement > organisés sous forme de défis javascript que je diffusais dans le corps > de mes offres d'emplois lorsque je recherche des développeurs. J'ai > arrêté de les proposer pour la simple raison que chatGPT donne les > bonnes réponses et rend par conséquent caduc la méthode de filtrage par > ce biais. > Par ailleurs quand tu poses à chatGPT un problème de logique et qu'il > parvient à te le résoudre en posant les bonnes équations ou qu'il te > pond du code fonctionnel ou presque adapté à la librairie de ton choix, > je ne pense pas que l'on puisse réduire chatGPT à un simple système > littéraire. Il y a bien dans ces réponses quelque chose qui s'apparente > à du raisonnement ou du moins qui le simule et dans ce cas quelle > différence fais tu entre un vrai raisonnement et un raisonnement simulé > et quelle expérience mets tu en oeuvre pour les discerner ? C'est précisément cela qui est fascinant et qui trouble tout le monde: il a été conçu comme un pur outil "littéraire", conversationnel, qui prédit juste des séquences de mots, et en pratique il arrive à faire des raisonnements logiques sophistiqués. Je pense que ses concepteurs ne s'attendaient pas à ça. Je vais tester dans les jours qui viennent l'IA d'openai (la boite qui a fait chatGPT) dédiée purement à la programmation. Tous les échos que j'ai disent qu'elle est redoutable, et risque de mettre au chomage 90% des développeurs. -- F.J.