JuzaPhoto utilizza cookies tecnici e cookies di terze parti per ottimizzare la navigazione e per rendere possibile il funzionamento della maggior parte delle pagine; ad
esempio, è necessario l'utilizzo dei cookie per registarsi e fare il login (maggiori informazioni).
Proseguendo nella navigazione confermi di aver letto e accettato i
Termini di utilizzo e Privacy e preso visione delle opzioni per la gestione dei cookie.
Puoi gestire in qualsiasi momento le tue preferenze cookie dalla pagina Preferenze Cookie,
raggiugibile da qualsiasi pagina del sito tramite il link a fondo pagina, o direttamente tramite da qui:
Quelli che integrano chatGPT nel loro prodotto utilizzandolo a modo API ovviamente non sanno nulla di come funziona ne di quali algoritmi ci siano dentro.
Quelli che si occupano del settore invece lo definiscono pappagallo stocastico.
Manca ancora parecchia strada per arrivare alla complessità del cervello umano, ci arriveremo e sicuramente riproducendolo su silicio, o qualsiasi altro materiale sarà disponibile tra 100 anni, sarà molto più potente del nostro.
Per il momento ci teniamo un pappagallo che dice anche cose sbagliate cercando di convincerci che siano vere.
Se veramente l'AI riuscirà a sviluppare un proprio sistema di "abilità emergenti" che vadano oltre la risoluzione dei problemi che le vengono assegnati, è probabile che non riusciremo mai a comprenderlo pienamente, né come funzionamento puro e semplice, né per eventuali implicazioni "etiche" che dovessero scaturire dal fatto che l'AI possa giungere a farne un uso non casuale, ma "opportunistico" e quindi in qualche modo cosciente. Questo perché già ora riusciamo a stento a comprendere come gli organismi viventi gestiscano coscientemente le proprie "abilità emergenti", nonostante la motivazione di fondo sia la stessa che abbiamo noi, cioè L'istinto di sopravvivenza (cosa che ci agevola enormemente nella comprensione del comportamento degli altri esseri viventi), figuriamoci dunque capire un uso cosciente di un sistema che non nasce dal medesimo problema iniziale, al punto che probabilmente non capiremo mai nemmeno cosa lo abbia fatto nascere. E' una prospettiva altamente inquietante, perché a quel punto l'AI potrebbe persino sviluppare un proprio approccio"etico" rispetto al mondo esterno, completamente differente dall'approccio etico di un essere "biologico". Quali ripercussioni potrebbe avere questa cosa sul rapporto con l'essere umano?
A chi invece interessa curiosare nel mondo del transumanesimo, ovvero la possibilità di fondersi con le macchine, sia integrandole nel nostro corpo, sia con un teorico upload della propria coscienza all'interno di un calcolatore per poter vivere in eterno (dicono loro... ma nessuno di quelli che sogna questa cosa spiega cosa succederebbe se staccassero la corrente! ) consiglio questo libro, assai interessante:
“ Le macchine hanno bisogno di molta più manutenzione di essere biologico „
Si, ma non "pensano" da sole a come farsi manutenzione, ci pensiamo noi. Invece il primo essere vivente dovette imparare a badare a sé stesso fin da subito; è proprio per questo che dovette sviluppare la coscienza del proprio rapporto col mondo esterno. Da questa considerazione credo che possano scaturire solo due possibili strade per l'evoluzione dell'AI: o non svilupperà mai una vera autocoscienza, quindi rimarrà comunque solo uno strumento nelle nostre mani, oppure svilupperà un'autocoscienza su basi (anche e soprattutto etiche) completamente differenti da quelle degli esseri viventi.
credo sia errato chiamare le AI macchine perche non lo sono, i software sono informazione programmabile, lavorano all'interno delle macchine ma non lo sono
facendo un paragone con noi, io non sono il mio corpo, la coscienza sono gli impulsi elettrici e l'interazione che si scambiano i neuroni, il cervello altro non é che la macchina dove avvengono questi flussi di informazione, la programmazione viene costantemente modificata tramite interazione all'ambiente
purtroppo almeno per ora noi non siamo replicabili ne eterni
Tecnicamente è così, ma come il software ha bisogno di un hardware come supporto per poter funzionare, anche la coscienza ha bisogno del corpo, quindi le due componenti non sono scindibili... almeno in questo mondo. Di fatto la coscienza degli esseri viventi, rudimentale o sofisticata che sia, ha avuto come primo scopo quello della conservazione del suo "supporto" corporeo, per non spegnersi essa stessa; l'AI però questo scopo non ce l'ha perché a mantenere attivo e funzionante il suo supporto ci pensa l'uomo; senza contare che l'intero sistema computerizzato è stato progettato per non "morire" quando si interrompe l'alimentazione, cosicché quando lo riaccendi riparte da dove era rimasto, indipendentemente da quanto lungo sia il tempo in cui è stato spento; solo la "memoria di lavoro" viene resettata, ma quella principale no. Negli esseri viventi questo non è possibile; l'alimentazione delle funzioni principali deve essere sempre attiva, altrimenti sopraggiunge la morte irreversibile, con una riserva (una sorta di "batteria" interna alle cellule) di pochissimi minuti, come insegnano anche ai corsi di primo intervento; questa cosa viene percepita da sempre, persino dalla rudimentale coscienza degli organismi unicellulari, ma un'eventuale coscienza "artificiale" non arriverebbe a comprenderla, nemmeno col paragone "smontato - morto" del vecchio film "Cortocircuito", perché non basta smontare un computer per rendere illeggibile e non più funzionante la sua memoria principale. Conserva per anni un disco rigido di un vecchio computer e poi collegalo ad una macchina nuova: riparte come se fosse stato spento da due minuti. Così come noi potremmo non giungere mai a comprendere appieno il modo di pensare di un'eventuale coscienza "artificiale", questa non giungerebbe probabilmente mai a comprendere il "dramma" che lega la coscienza biologica al concetto stesso di "vita", con ripercussioni, sul rapporto tra esseri viventi e macchine intelligenti, difficili da immaginare e prevedere. Al momento non pare che questa cosa sia così vicina (personalmente non credo che basti il ragionamento di un filosofo, sia pure della Columbia University, a fornire la prova che questo stia già avvenendo), ma l'ipotesi che possa avvenire in futuro non va scartata a priori o, comunque, dovrebbe costituire un costante monito a non spingerci deliberatamente in quella direzione.
Questa discussione ha raggiunto il limite di 15 pagine: non è possibile inviare nuove risposte.
La discussione
NON deve essere riaperta A MENO CHE non ci sia ancora modo di discutere STRETTAMENTE sul tema originale.
Lo scopo della chiusura automatica è rendere il forum più leggibile, soprattutto ai nuovi utenti, evitando i "topic serpentone": un topic oltre
le 15 pagine risulta spesso caotico e le informazioni utili vengono "diluite" dal grande numero di messaggi.
In ogni caso, i topic non devono diventare un "forum nel forum": se avete un messaggio che non è strettamente legato col tema della discussione,
aprite una nuova discussione!