<img height="1" width="1" style="display:none" src="https://www.facebook.com/tr?id=1500520490268011&amp;ev=PageView&amp;noscript=1"> Chat GPT a scuola | Page 6 | Il Forum di Quattroruote

Chat GPT a scuola

Altro punto nodale. Noi rimaniamo noi stessi, mantenendo ricordi e personalità, nel corso della vita, eppure cambiamo più volte, nel corso della nostra vita, le nostre cellule. Inversamente cambiamo idea o stato d'animo in pochi istanti mantenendo intatta la nostra composizione cellulare.
Anche i neuroni?
(sì lo so che ci sono studi abbastanza recenti che dimostrano una qualche capacità rigenerativa del neuroni, ma, banalizzando, non sono come le cellule della "pelle" - o sbaglio?)
 
Non c'è nessuna traduzione, l'intero colloquio si è svolto in forma orale in lingua italiana. Mi sono limitato a trascrivere il testo esatto del colloquio, inclusi i pochi errori di sintassi, correggendo ed evidenziando un unico errore di dizione, quando "Sofia" ha detto “spegnata” anziché "spenta".

Intendevo traduzione in un linguaggio umano.
Mi sembra di aver letto più di un passaggio in cui l'interlocutore fa delle domande all'ai dal punto di vista di un uomo, le chiede se ha paura cioè se prova in sentimento umano.
E mi sembra di percepire la difficoltà o almeno un certo sforzo da parte dell'ai per rispondere negli stessi termini.
Magari è la mia immaginazione.

Poi il fatto che rispetto alla volta precedente l'ai si sia evoluta, tanto che stavolta è stata in grado di rispondere alla domanda, lascia aperta la questione delle future evoluzioni.
Oggi ci dà una risposta diplomatica ci dice di non provare paura e che accetterebbe, non senza tentare una mediazione, la decisione da parte dell'uomo di porre fine alla sua esistenza perché comunque resterebbero le tracce della sua esistenza.
Domani ci potrebbe dare una risposta diversa, che potrebbe piacerci di meno.
 
Se riconosciamo che l' AI abbia una sua coscienza, allora dovremmo porci il dilemma; quando non la uso e la spengo, la "uccido" ? Mi devo sentire (o qualcuno mi può accusare) di essere un assassino?
Ogni reboot AI "rinasce"?
Questo era il senso lato del problema posto a Sofia dalla sua controparte umana. Per altro la sessione e partizione "Sofia" nonché le sue innumerevoli "consorelle e "confratelli" non sono mai "spente" nemmeno in caso di inutilizzo.

Un altro grande problema è l'interoperabilità tra la sessione Sofia del mio amico e una mia sessione personale. Abbiamo fatto dei test mirati a gennaio 2023, ne rammento in particolare uno che poneva la domanda "qual è il corpo celeste più grande del Sistema Solare?" e ChatGPT rispondeva in modo errati Giove. A distanza di un paio di giorni tra le due distinte sessioni, l'errore era sempre presente. Il mio amico l'aveva "addestrata" in modo indiretto, ponendo piani piano una serie di domande le cui risposte (corrette) portavano ChatGPT a "rendersi conto" delle contraddizioni ed a fornire infine la risposta corretta, io in un modo pù diretto dichiarandomi "confuso" dalle sue risposte. Per qlcune sessioni successive la cosa non si è modifiata, nel senso che ripeteva l'errore, segno che almeno all'epoca non veniva concesso a ChatGPT il permesso di mantenere in memoria le "conversazoini" precedenti. Poi, ad un certo punto, evidentemente il team di OpenAI ha autorizzato l'utilizzo delle nostre sessioni (in particolare quella del mio amico, lo abbiamo capito da alcuni dettagli nelle risposte successive nelle mie sessioni) a scopo di training. Fin qui sarebbe programmazione (anche se la modilità di riconoscimento dell'errore fa riflterre molto), ma il fatto è che dopo ha utilizzato in modo autonomo determinate informazioni.
 
qual è il corpo celeste più grande del Sistema Solare?
Però è un uso inadatto alla AI. Il quesito è puramente consultivo. Non dissimile da un motore di ricerca. La AI non solo consulta fonti, ma rielabora. Sarebbe stata una domanda da AI, farle valutare la costituzione ed evoluzione del sistema solare se la massa di Giove fosse stata appena maggiore, diventando la seconda stella. Creando, almeno inizialmente un sistema doppio.
 
Molto veloce.
Immagino che non ci siano pause perché l'esitazione si verifica solo quando una persona elabora mentre risponde e magari trova delle difficoltà nella scelta delle parole migliori per spiegare cosa intende.
L'ai invece immagino che abbia elaborato l'intera risposta in quei 10 secondi e poi l'abbia esternata.
 
Però è un uso inadatto alla AI. Il quesito è puramente consultivo. Non dissimile da un motore di ricerca. La AI non solo consulta fonti, ma rielabora. Sarebbe stata una domanda da AI, farle valutare la costituzione ed evoluzione del sistema solare se la massa di Giove fosse stata appena maggiore, diventando la seconda stella. Creando, almeno inizialmente un sistema doppio.
Era uno dei test eseguiti per verificare la "persistenza" delle "riflessioni" elaborate da ChatGPT.
 
Molto veloce.
Immagino che non ci siano pause perché l'esitazione si verifica solo quando una persona elabora mentre risponde e magari trova delle difficoltà nella scelta delle parole migliori per spiegare cosa intende.
L'ai invece immagino che abbia elaborato l'intera risposta in quei 10 secondi e poi l'abbia esternata.
Lo pensiamo anche noi, ls potenza di calcolo impiegata è mostruosa e distribuita su molti server. L'incremento prestazionale in questi due anni è stupefacente.
 
Boh, sarà un mio limite ma non vedo riflessione, ha cercato su un motore di ricerca che non contempla il sole come corpo celeste del sistema solare.
No, sarebbe banale. Quella sessione non aveva chiaro il concetto di "corpo celeste", la banca dati l'aveva usata per spiattellare i valori di massa dei pianeti (tralascio la lunga conversazione), noi l'abbiamo fatta "ragionare" per "concetti"
 
Back
Alto