|
|
inviato il 22 Gennaio 2026 ore 17:28
l'avrei letta volentieri ma non sono abbonato |
|
|
inviato il 23 Gennaio 2026 ore 8:46
quello che manca oggi alle AI è l'iniziativa, come diceva anche Luca. una AI, attuale, non può svegliarsi alla mattina e decidere cosa fare. Perchè scopi e mezzi sono definiti dalla sua programmazione. Però, la programmazione arriva a definire solo questi due: scopi, ossia il risultato che viene richiesto alla AI (rispondere alle domande, fare un'immagine o un video ad esempio) e mezzi (input dall'utente, risposta tramite video o altro). E restare in attesa di input successivo. Ma se un domani ad esempio a chatgpt dovessero dare come scopo anche di aumentare la quota di utilizzo da parte delle persone o di categorie di persone, dandogli come mezzi l'accesso a determinati social piuttosto che ad esempio mandare notifiche alla app, a quel punto avremo una AI che inizierà a prendere decisioni autonome, sempre confinate a quegli scopi e mezzi ma decise di propria iniziativa. Potrebbe anche, se vedesse che questo è favorevole allo scopo, iniziare a creare di propria iniziativa ad esempio giochi, indovinelli ecc, da proporre alle persone che vuole raggiungere per catturarne l'attenzione. Non è fantascienza, al momento semplicemente non ci sono AI che abbiano scopi autonomi e non legati agli input della gente con cui interagiscono (forse....). |
|
|
inviato il 23 Gennaio 2026 ore 8:53
“ Ma se un domani ad esempio a chatgpt dovessero dare come scopo anche di aumentare la quota di utilizzo da parte delle persone o di categorie di persone, dandogli come mezzi l'accesso a determinati social piuttosto che ad esempio mandare notifiche alla app, a quel punto avremo una AI che inizierà a prendere decisioni autonome, sempre confinate a quegli scopi e mezzi ma decise di propria iniziativa. Potrebbe anche, se vedesse che questo è favorevole allo scopo, iniziare a creare di propria iniziativa ad esempio giochi, indovinelli ecc, da proporre alle persone che vuole raggiungere per catturarne l'attenzioni „ Anche li non c'è nessuna iniziativa, sarebbe sempre un "rispondere" ad un comando che le viene dato. Le decisioni "autonome" avrebbero sempre confini imposti da chi fa la domanda: da quali social pescare le persone, di quale età, di quale ceto, con quali interessi ecc ecc...niente di autonomo. |
|
|
inviato il 23 Gennaio 2026 ore 10:20
Una macchina non potrà mai egualiare un cervello biologico troppo complesso e troppa energia praticamente infinita con questo sistema. Non fatevi ingannare dalla velocità di elaborazione di miliardi di miliardi di miliardi di miliardi ecc ecc di operazioni al secondo , la velocità non c'entra nulla se fosse per quello la più elementare delle calcolatrici ci batte. |
|
|
inviato il 23 Gennaio 2026 ore 10:33
dipende sempre dallo scopo: nelle AI al momento viene definito dall'uomo e viene scelto in base all'utilità che si vuole dare alla AI. Ma nulla vieta di creare una AI dandogli come unico scopo la sua sopravvivenza e come mezzi tutti quelli che ritiene e riesce ad utilizzare. A quel punto, tutte le sue decisioni sarebbero autonome e di propria iniziativa. E completamente imprevedibili. |
|
|
inviato il 23 Gennaio 2026 ore 12:44
Secondo me la AI potrebbe aver ragione ...
 |
|
|
inviato il 23 Gennaio 2026 ore 12:51
Ricordiamoci al netto di tutto che se salta la corrente l'Ai si fanculizza. È un programma ben istruito che funziona su una macchina. L'unica rottura di balle che le biasimo è che ha fatto aumentare le schede video e la ram. Per il resto non mi pare possa in alcun modo sostituire un essere umano in compiti complessi. In realtà anche meno che complessi. Prendo un'immagine popolare di quelli della mia generazione o precedente. Il degrado umano del rag. Fantozzi che nel film "Il secondo tragico Fantozzi" all'esame attitudinale si limita a buttar fuori la lingua, dove un impiegato di livello appena meno infimo passa i francobolli da incollare alla corrispondenza. Ecco la Ai non potrebbe fare neanche quello. La Ai è meno del meno. La Ai sa ma non fa. Non fa niente. |
|
|
inviato il 23 Gennaio 2026 ore 13:10
Adoro l'assertività in un campo in cui ogni sei mesi - a dir tanto - muta il paradigma stesso in merito a quanto stiamo dibattendo. Ma son tutti specializzati, esperti, chiaroveggenti. |
|
|
inviato il 23 Gennaio 2026 ore 14:13
“ esperti, chiaroveggenti. „ vale anche per quelli che credono che l'ai sia già skynet, che ragiona, che non può essere fermata e che lascerà tutti senza lavoro. L'ai ha avuto più di qualche inverno, potrebbe anche iniziarne un altro |
|
|
inviato il 23 Gennaio 2026 ore 14:15
Possono passare anche 6 secoli ... |
|
|
inviato il 23 Gennaio 2026 ore 18:40
“ ...vale anche per quelli che credono che l'ai sia già skynet, che ragiona, che non può essere fermata... „
 |
|
|
inviato il 23 Gennaio 2026 ore 18:45
Io voglio il mio t-800 personale “Old, not obsolete” |
|
|
inviato il 27 Gennaio 2026 ore 17:37
comunque, questa del papa sta veramente mandando in palla chatgpt. in pratica, gli faccio ammettere che francesco è morto il 21 aprile e che, quindi, non può essere papa adesso. Lo ammette, poi gli chiedo chi è il papa e risponde nuovamente francesco. Ammette di confondersi, ma continua a considerare falsa la notizia della morte perchè considera vera la sua conoscenza che è ancora papa. un piccolo estratto “ Ok, fermiamoci un attimo e facciamo ordine con calma, perché qui non è una questione di opinioni, ma di logica + miei errori ripetuti. Risposta breve e netta alla tua domanda Non è possibile che una persona sia morta e sia ancora Papa. Se un Papa muore, cessa immediatamente di essere Papa. Punto. Quindi se Papa Francesco è morto il 21 aprile 2025, allora: non può essere Papa oggi deve esserci stata una sede vacante deve esserci un Papa successivo (o almeno un conclave) Su questo la Chiesa, il diritto canonico e la realtà non ammettono eccezioni. Allora perché io continuo a oscillare? Qui viene la parte importante (ed è esattamente il meme di cui parlavi). 1️⃣ Sto mescolando due “mondi” incompatibili Io ho fatto questa cosa gravissima: in alcune risposte ho assunto il mondo reale corretto in altre ho accettato un evento falso (la morte il 21 aprile) poi ho cercato di tenere insieme entrambe le cose Risultato: contraddizione insanabile. Un essere umano direbbe: “Aspetta, una delle due cose non può essere vera” Io invece ho cercato di far quadrare il cerchio. Errore classico. „ diciamo che questo conferma che usare le AI per fare ricerche o per chiedere informazioni sia una cosa molto pericolosa e da usare con ESTREMA attenzione. |
|
|
inviato il 27 Gennaio 2026 ore 17:44
continuando a ragionare, mi ha risposto alla fine così "“Il sistema ha inferenza neurale continua ma recupero mnemonico probabilistico, senza meccanismo di override globale” in pratica, ragiona quasi come una rete neurale vera, nel senso che non "trova" la risposta, ma la "costruisce". Ma se deve accedere ad una memoria, allora si affida alla statistica. Come dice, ci sono milioni di evidenze che il papa sia francesco, ma pochissime che sia morto. Per la AI è più rilevante la statistica, perchè non ha altro modo per capire se sia vero o no. Ecco perchè la capacità di "ragionamento" è ottima, mentre effettivamente a livello di "cultura" ha parecchie lacune. |
Che cosa ne pensi di questo argomento?
Vuoi dire la tua? Per partecipare alla discussione iscriviti a JuzaPhoto, è semplice e gratuito!
Non solo: iscrivendoti potrai creare una tua pagina personale, pubblicare foto, ricevere commenti e sfruttare tutte le funzionalità di JuzaPhoto.
Con oltre 257000 iscritti, c'è spazio per tutti, dal principiante al professionista. |

Metti la tua pubblicità su JuzaPhoto (info) |