|
|
inviato il 04 Novembre 2023 ore 23:02
“ No, non mentono spudoratamente, semplicemente con le "statistiche" dell'algoritmo utilizzato quella è la risposta più probabile anche se è sbagliata. „ un momento, se si affidano alla probabilità dovrebbero dirlo, invece tacciono, quindi in una risposta non sai mai se sia un dato certo o probabile, e comunque io ho letto risposte veramente campate in aria spacciate per vere quindi il punto é, sono gli sviluppatori che impediscono all'IA di avvertire che una data risposta non ha fondamento, oppure é l'IA che decide di sua iniziativa tale comportamento |
|
|
inviato il 04 Novembre 2023 ore 23:20
La prima. I tool che sfruttano algoritmi di IA (non umanizzarle troppo rendendole soggetto di una frase) sono comunque programmati, volendo puoi anche tu inventare la tua applicazione basata su GPT4, basta pagare e la tua applicazione accede ai servizi GPT4. A quel punto è la tua applicazione a decidere come gestire quello che produce l'algoritmo, compreso il fatto che possa mentire per non contraddire mai l'utente e tenerlo incollato allo schermo in stile social. Al momento non si è preoccupati della sostituzione dell'essere umano da parte degli algoritmi (quello lo dicono i media per fare clickbaiting) ma degli effetti che avranno sull'umano le cazzate che gli algoritmi fanno. Cioè, banalizzando, se crei una applicazione che dice all'utente come cucinare ma sei in malafede, potresti influenzare milioni di persone a mangiare cose malsane e le influenzeresti con una pervasività ed una potenza mai vista fino ad ora. |
|
|
inviato il 05 Novembre 2023 ore 8:44
“ Al momento non si è preoccupati della sostituzione dell'essere umano da parte degli algoritmi (quello lo dicono i media per fare clickbaiting) ma degli effetti che avranno sull'umano le cazzate che gli algoritmi fanno „ Esattamente. Non siamo ancora ad una vera "Intelligenza Artificiale" e forse non ci arriveremo nemmeno, ma a parte ovviamente i casi di utilizzo specialistico (ad esempio in campo medico) che sono di straordinaria importanza ma che guarda caso fanno meno notizia, a livello di applicazioni che coinvolgono la quotidianità di ciascuno, dietro quell'altisonante appellativo si cela il solito rischio che lo strumento venga utilizzato per scopi niente affatto edificanti: dal semplice potenziamento della profilatura dell'utente della Rete alla t*fa vera e propria, fino alla manipolazione per scopi ideologici. |
|
|
inviato il 05 Novembre 2023 ore 9:47
"... manipolazione per scopi ideologici." Il problema fondamentale è proprio quello. Le menti deboli sono facilmente manipolabili e le menti deboli sono tante, tantissime. |
|
|
inviato il 05 Novembre 2023 ore 9:51
Si chiamano memristor, sono allo studio dal 2007, come ti ripeto, prima di arrivare a un dispositivo autocosciente passeranno molti molti anni e poi ci sarà una rivoluzione. Giordano quale è lo scopo della tua discussione? Affermare a tutti i costi la tua tesi iniziale anche quando è palesemente sbagliata? NB non prenderla come una polemica o un attacco, sto solo cercando di capire. |
|
|
inviato il 05 Novembre 2023 ore 10:04
da quel che vedo, l'AI in futuro raggiungerà un tale livello di perfezione nella manipolazione delle informazioni che sara impossibile smascherarle interessante, il sogno di una società anarchica dove ke istituzioni perdono lo status di autorevolezza e quindi potere si può realizzare di contro preparatevi perché son caxxi, se viene meno l'indirizzo etico dello stato perde valore anche quella civile |
|
|
inviato il 05 Novembre 2023 ore 12:12
Per come si è ridotta la società odierna, c'è da avere paura di un 386, altro che intelligenza artificiale |
user198779
|
inviato il 05 Novembre 2023 ore 13:36
Ektor , non è né sbagliata né giusta è uno studio riportato su le scienze. La mia opinione è che con il sistema binario non si va da nessuna parte e meno che meno con i prodigiosi computer quantistici de di quantistica hanno solo il nome. |
|
|
inviato il 05 Novembre 2023 ore 18:32
Le reti di nano fili costituiscono una prospettiva di sviluppo tecnicamente interessante e promettente, ma nei campi dove occorre una memoria molto grande e veloce da far lavorare comunque secondo le istruzioni dei programmatori. Una coscienza in grado di far rapportare "autonomamente" quelle reti al mondo che le circonda è tutt'altra faccenda. A meno che la cosa non nasca spontaneamente da qualche errore imprevisto, la vedo dura crearla volutamente da parte dei programmatori stessi; dovrebbero prima aver compreso pienamente il funzionamento della coscienza degli esseri viventi, almeno di quelli più semplici (cosa ancora ben lontana dalle nostre conoscenze), altrimenti si muoverebbero anche loro "a caso" e non caverebbero il classico ragno dal buco. Se però dovesse nascere autonomamente si ricadrebbe con tutta probabilità nell'ipotesi che facevo in un precedente intervento, ovvero che si formi una "coscienza artificiale" sulla base di motivazioni e valori molto differenti da quelli della coscienza degli esseri viventi, e allora potrebbero davvero essere caxxi! |
|
|
inviato il 18 Novembre 2023 ore 10:08
Mi ricollego a questo passaggio dell'intervento di EktorMarana “ Ad esempio la ragione per cui disegnano mani sbagliate è proprio perché non c'è l'idea di cosa sia una mano ed a cosa serva, si servono di un database di mani e le appiccicano li in fondo all'arto. „ per un approfondimento proprio su questo punto. Visto che Microsoft ha implementato (per ora gratuitamente) Image Creator, il suo software di creazione di immagini tramite AI, nel suo browser Edge, mi ci sto divertendo da un po' di tempo; così, per cercare di capirne qualcosa di più sulle logiche di funzionamento rispetto all'accuratezza dell'input testuale che gli viene fornito, ho provato a fargli creare un'immagine che, pur avendo parecchi precedenti in grafica tradizionale e persino nella mitologia, fosse di pura fantasia: un mostro marino con corpo da ittiosauro e "tre" teste. A parte la difficoltà che il software ha incontrato nella fusione di più teste con un unico corpo (in alcuni casi ha restituito "oggetti" in cui palesemente cercava di far combaciare due copie della stessa immagine, con i due corpi solo parzialmente fusi), quando finalmente riusciva ad inserire più teste su un corpo visibilmente "unico", il numero di teste andava da due fino a sei e, anche facendogli ripetere più volte la creazione (badate bene che ogni volta sforna non una ma quattro differenti versioni), solo in un limitato numero di casi le teste erano effettivamente tre. Ora, credo che l'unica spiegazione possibile risieda nel fatto che il software rilevi correttamente la richiesta di "teste", ovvero espressa in forma plurale, e sicuramente sia velocissimo nell'effettuare calcoli matematici complessi, ma non riesca ad associare correttamente il valore numerico "tre", che pure gli avevo specificato, a qualcosa di reale. Se avesse capito che solo le teste dovevano essere tre, non ne avrebbe sfornate due, o cinque, o sei; piuttosto avrebbe cercato immagini (e sicuramente in Rete ce ne sono parecchie) che già corrispondessero a quanto richiesto; se invece avesse capito che doveva fondere insieme "tre" immagini in modo che i corpi risultassero perfettamente sovrapposti e solo le teste separate, avrebbe restituito almeno qualche esempio in cui si sarebbero visti "tre" corpi malamente fusi, non soltanto "due" come invece è accaduto. Sembra che l'AI non sia in grado di associare un valore "materiale" ai numeri, ma solo un valore di calcolo interno alle sue procedure di funzionamento. Questo vorrebbe dire che le mancano due capacità fondamentali: la capacità di astrazione e quella di "trasferimento" di un valore tra campi differenti, che sono quelle che consentono all'essere umano di associare correttamente i valori numerici (astratti) ad azioni o quantità di oggetti nel mondo materiale. |
|
|
inviato il 18 Novembre 2023 ore 10:36
Se non ho capito male per la AI la relazione è: 1 corpo = 1 testa. Diversamente va in palla. |
|
|
inviato il 18 Novembre 2023 ore 11:35
in realta' non e' proprio cosi'. Va in palla se le lasci troppa liberta' di azione. Allora non sa piu' che pesci prendere e fa casini. Dipende sopratutto dalla semantica. Da come si pone la domanda. Oltre che, naturalmente, da come questa venga convertita dall'interfaccia. Insomma, se il comando e' impartito chiaramente ed e' completo, la risposta e' corretta (al netto di eventuali sogni). Il problema e' che i vari siti che propongono generatori di immagini tagliano inesorabilmente il prompt. L'AI costa. A loro interessa sopratutto raccoglier ei tuoi prompt e catalogarli. Quindi applicano un taglio deciso sul prompt passato al motore AI . Magari oggi provo a fare una immagine con queste caratteristiche. |
|
|
inviato il 18 Novembre 2023 ore 14:42
Quello che mette alla sbarra la AI è la prova utonto. |
|

Metti la tua pubblicità su JuzaPhoto (info) |