<img height="1" width="1" style="display:none" src="https://www.facebook.com/tr?id=1500520490268011&amp;ev=PageView&amp;noscript=1"> Chat GPT a scuola | Page 9 | Il Forum di Quattroruote

Chat GPT a scuola

chissa' che vorra' mai dire "per eseguire un ciclo infinito di operazioni"
un qualunque microprocessore, e' predisposto per eseguire un ciclo infinito di operazioni, finche' non si rompe, quantomeno :D
 
Articolo molto generico dove non dice niente di specifico. Un acchiappaclick, in sostanza.
Noi è dall'anno scorso che sentiamo parlare di AI, ma sono decenni che gli scienziati ci lavorano.
Per chi è davvero interessato all'argomento suggerisco di leggere qualche libro (o ascoltare alcuni comizi) di Nello Cristianini.
 
Vuol dire che l'essere umano è incredibilmente stupido e si merita l'estinzione.

Non ricordo chi ha in firma questa

images


Ma è tremendamente vera
 
Ogni tanto escono queste notizie, e si ritira fuori HAL , Terminator e qualche altro essere di Hollywood, in realtà in tutti i casi analizzati l'AI aveva fatto il suo dovere , erano state sbagliate le 'istruzioni' che erano state date , da umani.
Tempo fa era uscita la notizia del drone che si era 'ribellato' , in realtà chi aveva programmato non lo aveva fatto a dovere, l'input che era stato dato era troppo generico, diciamo forse l'esempio di Asimov è più attinente, li c'erano le 3 leggi che le possiamo vedere anche come corrette vie di uscita. Se uno questo vie di uscita le scrive sbagliate la colpa non è dell'AI, con il drone invece non le avevano previste per bene.
Ma cmq secondo me si fa l'errore di spostare il problema sull'AI mentre il problema è sull'utilizzo che ne faremo
 
Dal momento che, per quanto un pelino più evoluto del print("hello world") l'AI è sempre un codice, mi pare evidente che se fa qualche cappella è a causa di chi l'ha scritto.... il problema potrebbe sorgere - IMHO - nel momento in cui fosse introdotta la capacità (o il permesso...) di autocorreggersi il codice sorgente, allora sì gli sviluppi potrebbero essere imprevedibili....
 
Dal momento che, per quanto un pelino più evoluto del print("hello world") l'AI è sempre un codice, mi pare evidente che se fa qualche cappella è a causa di chi l'ha scritto.... il problema potrebbe sorgere - IMHO - nel momento in cui fosse introdotta la capacità (o il permesso...) di autocorreggersi il codice sorgente, allora sì gli sviluppi potrebbero essere imprevedibili....

secondo me non sarà mai in grado di sviluppare codice per autocorreggersi, poi il fatto che il codice non è fatto a dovere , ma più che codice direi l'analisi, non è che sia un problema da poco .
Per me resta sempre più la paura per l'utilizzo che se ne fà, capisco che è meno hollywoodiano come scenario, le macchine che si ribellano affascinano di più, ma quello mi preoccupa di meno , mi preoccupa di più generazione che crescono a pane e AI e non sanno più usare l'intelletto. E' un poco come il discosto del Grande Fratello, la storia ci dimostra che poi alla fine non è neanche andato come pensava Orwell , è andata in maniera più banale per certi versi ma anche più 'drammatica', siamo stati noi che volontariamente ci siamo fatti controllare, per dire che certe volte i Romanzi ci deviano dalla giusta via , secondo me
 
Ultima modifica:
intendi che non gliene sarà data la possibilità, o che proprio non lo potrebbe fare per qualche "principio" matematico/informatico?


tutte e due le cose, puoi mettere dei paletti ma allo stesso tempo non credo che informaticamente parlando una AI puoi riprogrammarsi da sola, poi non è proprio il mio settore informatico, quindi vado per intuizione. Comunque una cosa che una AI non potrà mai fare sarà la percezione di se stessa che credo sia poi alla base dei comportamenti umani, Hal 9000 si comportava come un umano, mentiva ad esempio , e non credo che quello una AI potrà mai farlo proprio perchè non ha una percezione di se
 
Nel film L'uomo bicentenario il padrone "interrogava" Andrew e gli ricordava che i robot non possono mentire.
Allora Andrew replicava che non era del tutto esatto,che avrebbe potuto mentire per salvaguardare la sicurezza della famiglia o se gli fosse stato ordinato o per la propria incolumità.
Insomma per una buona ragione.

Mi rendo conto che sono esempi cinematografici ma quello che spaventa secondo me è l'eventualità che all'intelligenza artificiale venga affidato un compito da svolgere in totale autonomia.
E che quest'ultima possa decidere che per ottenere il fine per cui è stata creata vada bene ogni mezzo.

Nella saga degli Avengers Ultron nasce come uno scudo per proteggere la terra dalla distruzione.
Ma non appena diventa senziente si rende conto che la più grande minaccia per la sopravvivenza della razza umana è la natura stessa dell'uomo programmata per autodistruggersi.
E che quindi l'unico modo per salvaguardare la vita sulla terra è eliminare la razza umana e sostituirla.
 
non credo che informaticamente parlando una AI puoi riprogrammarsi da sola,
se lo dici tu che sei del mestiere sono portato a crederci, ma mi resta il dubbio che come il software di un'auto può essere aggiornato OTA, se la stessa cosa può essere - teoricamente - lanciata dal software stesso arriveremmo all'autoriprogrammazione....
una cosa che una AI non potrà mai fare sarà la percezione di se stessa che credo sia poi alla base dei comportamenti umani, Hal 9000 si comportava come un umano, mentiva ad esempio , e non credo che quello una AI potrà mai farlo proprio perchè non ha una percezione di se
...e qui spero tanto che tu abbia ragione. Perchè anche il deep learning fino a qualche anno fa sarebbe stato impensabile, oggi è la normalità. Il mio dubbio è: esiste un confine tra deep learning e autocoscienza? Come si può definire un'«emozione»?
Ho trovato questo articolo più filosofico che informatico, ma qualche spunto di riflessione anche per un anti-filosofo come me c'è....

https://www.advmedialab.com/davvero-possibile-ai-diventi-cosciente/

La cosa che mi inquieta è che ci sono scienziati che ci lavorano e lo ritengono possibile, sia pure lontano nel tempo. Ma il tempo è galantuomo, dicevano i nostri vecchi...
 
se lo dici tu che sei del mestiere sono portato a crederci, ma mi resta il dubbio che come il software di un'auto può essere aggiornato OTA, se la stessa cosa può essere - teoricamente - lanciata dal software stesso arriveremmo all'autoriprogrammazione....

lassa sta, l'unico cosa di cui sono certo in informatica è che si tratta di un territorio talmente vasto che posso essere un genio in un ambito e non capirci nulla in un altro , lo dico quindi da discretamente ignorante su come è strutturata una AI , mi sembra giusto difficile pensare che si possa autoprogrammare, può apprendere ma non credo autoprogrammarsi, ma pronto ad essere smentito.

Ho trovato questo articolo più filosofico che informatico, ma qualche spunto di riflessione anche per un anti-filosofo come me c'è....


secondo me qui si entra proprio in un ambito che è molto filosofico, e forse ci vorrebbe proprio un filosofo ad aiutarci, ma almeno per come intendo io la coscienza una macchina non riesce ad averla perchè in realtà riproduce , come dice l'articolo che hai postato, ma non riesce ad avere una percezione di se stessa, dall'altro o del mondo che la circonda , attinge a tutto quello che è riuscito ad immagazzinare ma non va oltre a quello. Non è neanche facile da spiegare come pensiero, poi chissà nel futuro come andrà, ma secondo me con quello che si ha almeno oggi non si potrà mai replicare un comportamento cosciente
 
lassa sta, l'unico cosa di cui sono certo in informatica è che si tratta di un territorio talmente vasto che posso essere un genio in un ambito e non capirci nulla in un altro , lo dico quindi da discretamente ignorante su come è strutturata una AI , mi sembra giusto difficile pensare che si possa autoprogrammare, può apprendere ma non credo autoprogrammarsi, ma pronto ad essere smentito.






secondo me qui si entra proprio in un ambito che è molto filosofico, e forse ci vorrebbe proprio un filosofo ad aiutarci, ma almeno per come intendo io la coscienza una macchina non riesce ad averla perchè in realtà riproduce , come dice l'articolo che hai postato, ma non riesce ad avere una percezione di se stessa, dall'altro o del mondo che la circonda , attinge a tutto quello che è riuscito ad immagazzinare ma non va oltre a quello. Non è neanche facile da spiegare come pensiero, poi chissà nel futuro come andrà, ma secondo me con quello che si ha almeno oggi non si potrà mai replicare un comportamento cosciente

Non riesce ad avere la percezione di se stessa, ma dovrebbe sviluppare la percezione di ciò che è bene e ciò che è male, certo non come lo intendiamo noi, ma nel senso di ciò che è lecito fare e ciò che non lo è. Altrimenti sarebbe un grosso problema se sviluppasse soluzioni pericolose in chi la usa. E' una macchina, e come tale usa la logica. Ma c'è chi attraverso la logica è riuscita a dimostrare l'esistenza di Dio. Per me è un mare aperto, soprattutto se finisse nelle mani sbagliate.
 
Non riesce ad avere la percezione di se stessa.


Io ci andrei cauto con gli assiomi: non sappiamo se una macchina potrà avere coscienza di sè e questo soprattutto perché non sappiamo cosa sia la coscienza. Ci sono gruppi di scienziati, filosofi e informatici, fra i migliori al mondo che fanno continuamente questo tipo di riflessioni e si potrà anche dire che non hanno concluso nulla, ma i ragionamenti li sanno fare molto bene. Non abbiamo alcuna certezza che la nostra coscienza sia qualcosa di veramente "umano" e nemmeno che sia qualcosa di "animale"; si potrebbe trattare invece si semplici interazioni fra molecole che a miliardi fanno cose e "producono" un lavoro che noi percepiamo come coscienza. E se fosse così, non ci sarebbe una vera differenza tra un oggetto animato e uno inanimato. E' fantascienza, ma non siamo in grado di escluderlo.
Con queste premesse, sì, una macchina potrebbe avere coscienza di sé.
 
Sono ad una masterclass di dosimetria per una nuova metodica. Automatismi basati su algoritmi analitici su griglie tridimensionali analogiche, solo in formato digitale, senza AI... un bel passo indietro, lo sanno anche loro...
 
Back
Alto