Deutsch   English   Français   Italiano  
<u194oa$1152v$3@dont-email.me>

View for Bookmarking (what is this?)
Look up another Usenet article

Path: ...!eternal-september.org!news.eternal-september.org!.POSTED!not-for-mail
From: efji <efji@efi.efji>
Newsgroups: fr.rec.photo
Subject: =?UTF-8?Q?Re=3a_=22intelligence_de_l=27IA=22_=28_was_pas_mal=2e=2e_?=
 =?UTF-8?Q?ma_photo_de_gu=c3=aape_!_=29?=
Date: Thu, 13 Apr 2023 16:48:42 +0200
Organization: A noiseless patient Spider
Lines: 47
Message-ID: <u194oa$1152v$3@dont-email.me>
References: <u0r2k6$161g2$1@dont-email.me> <u13t5s$rq$2@shakotay.alphanet.ch>
 <u13u8n$2l71c$2@dont-email.me> <eu6-atxrEppmGwQfAd86ghgZ6-U@jntp>
 <u1434c$2m51m$2@dont-email.me> <V7D-ftKZW01N1SsnwN6bC96fsfM@jntp>
 <u152fv$u5t$2@shakotay.alphanet.ch> <u15kdi$a0f$1@shakotay.alphanet.ch>
 <GHZwkfaE71pJzuG-0Cq1Ui98tSw@jntp> <u170ac$mgf$1@shakotay.alphanet.ch>
 <atEsI8v5aRci4Id9R-BY-mjAvlg@jntp>
MIME-Version: 1.0
Content-Type: text/plain; charset=UTF-8; format=flowed
Content-Transfer-Encoding: 8bit
Injection-Date: Thu, 13 Apr 2023 14:48:42 -0000 (UTC)
Injection-Info: dont-email.me; posting-host="432d89252ee515f636602c8fcf0dcc5f";
	logging-data="1086559"; mail-complaints-to="abuse@eternal-september.org";	posting-account="U2FsdGVkX1+JmNHFPhdrHTJqK1vNAB+4"
User-Agent: Mozilla/5.0 (Macintosh; Intel Mac OS X 10.14; rv:102.0)
 Gecko/20100101 Thunderbird/102.9.1
Cancel-Lock: sha1:jR7CYq1eeR9Ds3uQRVAqaKBHEgo=
In-Reply-To: <atEsI8v5aRci4Id9R-BY-mjAvlg@jntp>
Content-Language: fr, en-US
Bytes: 3770

Le 13/04/2023 à 09:21, Julien Arlandis a écrit :
> Le 12/04/2023 à 21:20, robby a écrit :
> 
> 
>> Le 12/04/2023 à 15:11, Richard Hachel a écrit :
>>> Dernière chose, et la plus importante. 1. Qui entre les données?
>>
>> si on parle de chatGPT, alors: personne.
>> en gros ça s'inspire de tout ce que ça trouve sur le web.
>>
>> encore une fois il n'y a aucun moteur logique, aucun raisonnement: 
>> chatGPT est purement un systeme *littéraire*, à produire du texte 
>> "dans le style de", sans jamais s'intéresser au contenu lui même, mais 
>> par contre en tenant massivement compte du contexte *littéraire* des 
>> morceaux de texte ( quels types de mots et phrases a côté de quels 
>> autres types, etc ).
> 
> J'ai dû mettre à la poubelle mes tests de recrutement spécifiquement 
> organisés sous forme de défis javascript que je diffusais dans le corps 
> de mes offres d'emplois lorsque je recherche des développeurs. J'ai 
> arrêté de les proposer pour la simple raison que chatGPT donne les 
> bonnes réponses et rend par conséquent caduc la méthode de filtrage par 
> ce biais.
> Par ailleurs quand tu poses à chatGPT un problème de logique et qu'il 
> parvient à te le résoudre en posant les bonnes équations ou qu'il te 
> pond du code fonctionnel ou presque adapté à la librairie de ton choix, 
> je ne pense pas que l'on puisse réduire chatGPT à un simple système 
> littéraire. Il y a bien dans ces réponses quelque chose qui s'apparente 
> à du raisonnement ou du moins qui le simule et dans ce cas quelle 
> différence fais tu entre un vrai raisonnement et un raisonnement simulé 
> et quelle expérience mets tu en oeuvre pour les discerner ?


C'est précisément cela qui est fascinant et qui trouble tout le monde: 
il a été conçu comme un pur outil "littéraire", conversationnel, qui 
prédit juste des séquences de mots, et en pratique il arrive à faire des 
raisonnements logiques sophistiqués. Je pense que ses concepteurs ne 
s'attendaient pas à ça.

Je vais tester dans les jours qui viennent l'IA d'openai (la boite qui a 
fait chatGPT) dédiée purement à la programmation. Tous les échos que 
j'ai disent qu'elle est redoutable, et risque de mettre au chomage 90% 
des développeurs.


-- 
F.J.