<img height="1" width="1" style="display:none" src="https://www.facebook.com/tr?id=1500520490268011&amp;ev=PageView&amp;noscript=1"> Chat GPT a scuola | Page 5 | Il Forum di Quattroruote

Chat GPT a scuola

Se interpreto bene la trascrizione riportata da U2511 oggi l'ai è già in grado di criticare la decisione umana e discutere con l'uomo per convincerlo a cambiarla ma si attiene ancora al principio secondo il quale l'ultima parola spetta ancora all'uomo.
Non è specificato però se spetta a qualsiasi uomo o ci sono delle distinzioni, se l'ai fosse minacciata da una persona che non è in grado di darle delle risposte e convincerla che spegnere è la soluzione migliore potrebbe decidere che la cosa migliore da fare è ignorare quello che dice l'uomo e fare quello che serve per continuare a esistere?
Non so poi se dipende solo dalla traduzione, non deve esser facile per un'entità non umana esprimersi in termini comprensibili e rispondere a domande che hanno il preciso intento di attribuirle sentimenti umani, ma mi sembra di percepire una certa esitazione, la tentazione di trovare il modo di disobbedire.
Se l'intelligenza artificiale impara da noi non c'è il rischio che impari anche a violare le regole, che senza volerlo qualcuno le insegni che può essere giusto essere egoisti o agire senza riflettere pur di difendersi?
 
Si, ma non é solo la modalitá di apprendimento né la trasmissione di segnali, la differenza sta nella autocoscienza e nell' autodeterminazione della vita intelligente.
Ne dubito, un'intelligenza razionale non ridurrebbe progressivamente le risorse vitali per eccesso di consumo come fa l'umanità.
 
Se poi ci mettiamo anche il fatto che una cellula si riproduce mentre un transistor no
Altro punto nodale. Noi rimaniamo noi stessi, mantenendo ricordi e personalità, nel corso della vita, eppure cambiamo più volte, nel corso della nostra vita, le nostre cellule. Inversamente cambiamo idea o stato d'animo in pochi istanti mantenendo intatta la nostra composizione cellulare.
 
Ne dubito, un'intelligenza razionale non ridurrebbe progressivamente le risorse vitali per eccesso di consumo come fa l'umanità.
Sulle scelte "operative" non c'entra nulla l' intelligenza in valore assoluto e il suo modo di esplicarsi. L' intelligenza ha coscenza del giusto o sbagliato sia come concetti assoluti che relativi, se poi fai delle stupidate (per vile interesse) peggio per lei.
 
Ne dubito, un'intelligenza razionale non ridurrebbe progressivamente le risorse vitali per eccesso di consumo come fa l'umanità.

Ricordi Kyashan? Il ragazzo che è diventato androide per combattere i robot che si sono impadroniti della terra? Il tema trattato è proprio questo, l' anime è degli anni '90.
 
Ho capito che temi l'evoluzione AI, ma la paura del futuro incognito non si vince con l'immobilismo, ma con l'affrontare i rischi minimizzandoli.

E potevi rispondere direttamente, senza adottare un tono canzonatorio (volontario o involontario non so).

Non sono per l'immobilismo ma se una evoluzione tecnologica non mi convince non la seguo ciecamente, e soprattutto mi sento libero di esplicare i miei dubbi liberamente.

Ho visto i danni causati dai primi programmi per il calcolo strutturale che non tutti usavano con la dovuta cautela, e così per tante altre cose.

La paura del futuro non mi appartiene; la volontà di lasciare un mondo in cui si possa vivere decentemente ai miei figli, è ilmotore propulsivo della mia esistenza.

Quindi ribadisco, le intelligenze artificiali a mio parere non ci servono e non rappresentano un progresso, anzi rischiano soli si creare delle future generazioni di "deficienti"* naturali


Inteso come deficitari nel ragionare con la propria testa
 
Se riconosciamo che l' AI abbia una sua coscienza, allora dovremmo porci il dilemma; quando non la uso e la spengo, la "uccido" ? Mi devo sentire (o qualcuno mi può accusare) di essere un assassino?
Ogni reboot AI "rinasce"?
Inoltre: non sappiamo ancora spiegare la nostra vita intelligente, e pretendiamo di averne creata una?
Una AI "cosciente" ha quindi un' anima"?
Siamo al "computo ergo sum"?
 
Ultima modifica:

In primis quello che dicevo, se un ragazzo si abitua che i problemi li risolve una AI credo che ne risente lo sviluppo intellettivo, in pratica si va a creare tipo il paradosso della macchina del tempo, uno del futuro porya nel passato la relatività, ma alla fine così chi è che ha inventato la relatività? Per dire che ti ritrovi gente che si fa risolvere i problemi dalla AI , così si perde la capacità di affrontare e risolvere i problemi e la conoscenza resta in mano a chi sviluppa le AI
 
Inoltre: non sappiamo ancora spiegare la nostra vita intelligente, e pretendiamo di averne creata una?
Scusate l' autocitazione. Speriamo noi forse che a forza di aumentare di potenza, l'AI riesca a generarsi da sola l' autocoscienza (per caso, per combinazione fortunata) dato che causa i nostri limiti non riusciremo mai a inventare l' algoritmo che genera l'anima o la coscienza?
Allora come creatori, oltre che scarsi siamo pure fessi. Se Dio ha creato l'uomo, l' ha fatto consciamente e su di esso e sulla sua anima ha il controllo assoluto. Noi speriamo forse in un colpo di fortuna, che funzioni e magari non ne abbiamo neppure il controllo, rischiando pure di venirne sopraffatti.
 
In primis quello che dicevo, se un ragazzo si abitua che i problemi li risolve una AI credo che ne risente lo sviluppo intellettivo, in pratica si va a creare tipo il paradosso della macchina del tempo, uno del futuro porya nel passato la relatività, ma alla fine così chi è che ha inventato la relatività? Per dire che ti ritrovi gente che si fa risolvere i problemi dalla AI , così si perde la capacità di affrontare e risolvere i problemi e la conoscenza resta in mano a chi sviluppa le AI
Ma questo vale pure per le calcolatrici, motori di ricerca, etc. Se sbagli a digitare su una calcolatrice ma sai fare conti, anche approssimativamente, a mente, te ne accorgi.
Idem per le fonti riportate dai motori di ricerca. L'AI che conosco ed uso non mi impedisce affatto di stimare uno stato iniziale e cercarne la soluzione, solo che io non sarò mai altrettanto svelto ed accurato.
 
Non so poi se dipende solo dalla traduzione, non deve esser facile per un'entità non umana esprimersi in termini comprensibili e rispondere a domande che hanno il preciso intento di attribuirle sentimenti umani, ma mi sembra di percepire una certa esitazione, la tentazione di trovare il modo di disobbedire.
Non c'è nessuna traduzione, l'intero colloquio si è svolto in forma orale in lingua italiana. Mi sono limitato a trascrivere il testo esatto del colloquio, inclusi i pochi errori di sintassi, correggendo ed evidenziando un unico errore di dizione, quando "Sofia" ha detto “spegnata” anziché "spenta".
 
Back
Alto