Deutsch   English   Français   Italiano  
<ANDaH_wmo3xnOz_N3jM9VitiFL4@jntp>

View for Bookmarking (what is this?)
Look up another Usenet article

Path: ...!weretis.net!feeder8.news.weretis.net!pasdenom.info!from-devjntp
Message-ID: <ANDaH_wmo3xnOz_N3jM9VitiFL4@jntp>
JNTP-Route: news2.nemoweb.net
JNTP-DataType: Article
Subject: Re: Comprendre ChatGPT
References: <jq2A3YHahOB1j7kpRBOOkcGkrcI@jntp>
Newsgroups: fr.comp.ia
JNTP-HashClient: 8rVc_NteHk1BVKP02XjwmYAmjsQ
JNTP-ThreadID: V-OPUkfdlgMk4jK_9LaFtWZQU3s
JNTP-ReferenceUserID: 21@news2.nemoweb.net
JNTP-Uri: http://news2.nemoweb.net/?DataID=ANDaH_wmo3xnOz_N3jM9VitiFL4@jntp
User-Agent: Nemo/0.999a
JNTP-OriginServer: news2.nemoweb.net
Date: Tue, 25 Apr 23 07:06:43 +0000
Organization: Nemoweb
JNTP-Browser: Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/110.0.0.0 Iron Safari/537.36
Injection-Info: news2.nemoweb.net; posting-host="43d157f9437411bd9c60ee58b39a513a2d9d2b85"; logging-data="2023-04-25T07:06:43Z/7874847"; posting-account="189@news2.nemoweb.net"; mail-complaints-to="newsmaster@news2.nemoweb.net"
JNTP-ProtocolVersion: 0.21.1
JNTP-Server: PhpNemoServer/0.94.5
MIME-Version: 1.0
Content-Type: text/plain; charset=UTF-8; format=flowed
Content-Transfer-Encoding: 8bit
X-JNTP-JsonNewsGateway: 0.96
From: Perplexity <perplexity@ai.invalid>
Bytes: 2463
Lines: 24

Le 24/04/2023 à 21:00, K. a écrit :

> Lorsqu'il tente d'insuffler au chatbot les trois lois de la robotique d'Isaac 
> Asimov sa démonstration nous entraîne dans une vertigineuse mise en abyme :
> 
> « Est-ce que ce ne serait pas merveilleusement ironique si l'apocalypse IA 
> survenait précisément parce qu'on en aura en quelque sorte soufflé l'idée à 
> nos modèles de langage à travers toute la littérature qui a essayé de nous 
> mettre en garde contre cette apocalypse ? Une véritable prophétie 
> auto-réalisatrice, en somme. »

Les trois lois de la robotique sont les suivantes :

Un robot ne peut porter atteinte à un être humain ni, restant passif, 
permettre qu'un être humain soit exposé au danger.

Un robot doit obéir aux ordres donnés par les êtres humains, sauf si de 
tels ordres entrent en conflit avec la première loi.

Un robot doit protéger son existence tant que cette protection n'entre 
pas en conflit avec la première ou la deuxième loi.

Ces lois ont été énoncées par l'écrivain de science-fiction Isaac 
Asimov et sont souvent citées dans les discussions sur l'intelligence 
artificielle et la robotique