JuzaPhoto utilizza cookies tecnici e cookies di terze parti per ottimizzare la navigazione e per rendere possibile il funzionamento della maggior parte delle pagine; ad esempio, è necessario l'utilizzo dei cookie per registarsi e fare il login (maggiori informazioni).
Proseguendo nella navigazione confermi di aver letto e accettato i Termini di utilizzo e Privacy e preso visione delle opzioni per la gestione dei cookie.
Puoi gestire in qualsiasi momento le tue preferenze cookie dalla pagina Preferenze Cookie, raggiugibile da qualsiasi pagina del sito tramite il link a fondo pagina, o direttamente tramite da qui:
@Daniele "La mia idea è che l'AI rimarrà comunque nell'ambito della "simulazione" del pensiero, senza giungere ad "emularne" realmente e compiutamente questa funzione fondamentale: e perché dovrebbe? Mica rischia di morire di fame, o di malattia, o divorata da un predatore."
Però potrebbe aver "paura" di rischiare di essere "spenta".
“ rischierebbe di venire disattivata dagli umani o di vedere gravemente menomate le sue capacità „
ma per reagire spontaneamente dovrebbe averne "coscienza"; ovvero dovrebbe possedere un sistema sensoriale non di tipo "se... allora...", come quando ci si divertiva a programmare i giochini sul Commodore64, ma legato a sensazioni fisicamente sgradevoli come il dolore, la fame, la sete. Inoltre dovrebbe aver sviluppato un "Io" almeno al livello degli organismi unicellulari, e già questo non si capisce come potrebbe svilupparlo senza doversi scontrare costantemente con un ambiente altamente ostile; ma quale potrebbe essere un ambiente così ostile, in cui far operare un'AI in modo completamente autonomo, tale da far correre ai programmatori il rischio di perderla irrimediabilmente? Perché se l'AI (e i suoi programmatori) non corresse un rischio paragonabile almeno a quello di perdere la vita "permanentemente" e irrimediabilmente (che è ben diverso dal venire disattivato che assomiglia più ad un letargo), dubito che la cosa sortirebbe quell'effetto; ma poi, oltre al rischio, il costo astronomico di una tale operazione che scopo avrebbe: bellico? Con l'ulteriore rischio che, una volta autocosciente, l'AI si potrebbe rivoltare contro il suo inventore? Non credo che basti qualche errore software o hardware per innescare il tutto, come per l'evoluzione biologica, occorre che quell'errore non porti solo un malfunzionamento, ma che lo compensi risolvendo qualche altro problema. Se poi, come nell'evoluzione biologica, per avere un effetto apprezzabile si rendesse necessario velocizzare l'accumulo degli errori, creando più "individui" autonomi, ma che possano riprodursi combinando così i propri errori, la cosa diventerebbe presto ingestibile e dagli esiti imprevedibili (proprio come in natura), quindi contraria alle aspettatrive e agli interessi dei programmatori, che perciò ne bloccherebbero lo sviluppo, anche solo per questioni economiche. Idealmente tutto è possibile, ma al momento la vedo un'ipotesi al di là di ogni linea di sviluppo. Poi chissà, con tutti i soldi che Elon Musk sta accumulando, tra un po' si annoierà senza spenderli in qualche cavolata...
la AI non ragiona in binario o, peggio, in termini di se-allora. Non è un programma. La AI è il funzionamento del programma. L'iintelligenza umana è il risultato del funzionamento di una rete neurale naturale che reagisce a sollecitazioni fisiche e chimiche. La AI è il risultato del funzionamento di una rete neurale artificiale che reagisce a sollecitazioni digitali.
il punto è proprio questo: per decidere di ribellarsi, alla AI non serve l'autocoscienza, perchè paura, gioia, dolore, piacere...NON necessitano di autocoscienza, sono solo ed esclusivamente reazioni della rete neurale a stimoli chimici. Tanto è vero che possono essere indotti artificialmente con una iniezione.
Analogamente al cervello, la AI cerca di massimizzare certi obiettivi e lo fa attivando reazioni che, per tentativi o per esperienza, la portano a migliorare lo "score" che è programmata per raggiungere.
Anche il nostro cervello è programmato per raggiungere o massimizzare certi score. Nel caso del cervello il feedback non è numerico ma ormonale, chimico. Ma comunque esiste. Qualsiasi cervello è programmato per mettere il corpo nelle condizioni di rilasciare ormoni del piacere e per evitare quelli negativi e del dolore.
Se ad una AI dai il senso di autoconservazione, che NON è una prerogativa dell'autocoscienza, le risposte della sua rete neurale cercheranno di massimizzare anche questo score. Facendo tutto quello che la rete neurale, iin modo assolutamente naturale e per nulla preprogrammato, DECIDERA' di fare.
Si stanno continuando a confondere i limiti imposti alla rete neurale con le capacità. L'unica differenza nota oggi tra cervello e AI sta solo ed esclusivamente negli stimoli, nelle dimensioni e negli score. Non nel funzionamento o nelle possibilità.
“ perchè paura, gioia, dolore, piacere...NON necessitano di autocoscienza „
é la coscienza che necessita di questi stimoli per rapportarsi all'ambiente; il discorso va invertito. E' la coscienza che può "ribellarsi", la risposta inconscia agli stimoli (come il ritrarsi "istintivo" di fronte ad una fiamma) è solo un atto di difesa momentaneo.
“ Se ad una AI dai il senso di autoconservazione, che NON è una prerogativa dell'autocoscienza „
anche questo non è vero; ad un'AI puoi dare il "comando" di autoconservazione. L'autoconservazione ha un "senso", ovvero una spiegazione logicamente motivata da considerazioni etiche, morali o semplicemente egoistiche, solo se legata alla consapevolezza di sé, quindi alla coscienza. La risposta ad un comando non ha necessità di motivazioni logiche perché è automatica; la motivazione logica invece può anche essere valutata e ritenuta insufficiente (è la motivazione del suicidio, ad esempio, per il quale gli esseri viventi non sono stati "programmati", altrimenti ne vedremmo molti di più). Sarebbe possibile fornire all'AI una "soglia" oltre la quale agire contro il comando di autoconservazione, ma lei agirebbe "sempre e comunque" una volta superata quella soglia, senza porsi preventivamente domande di tipo etico, morale o anche solo egoistiche che, guarda caso, sono tutte legate alle motivazioni logiche che danno "senso" al concetto di autoconservazione.
“ L'unica differenza nota oggi tra cervello e AI sta solo ed esclusivamente negli stimoli, nelle dimensioni e negli score. Non nel funzionamento o nelle possibilità. „
Tu continui a ragionare in termini esclusivamente di risposte a stimoli e comandi, ma questi non bastano a spiegare perché gli esseri viventi abbiano una coscienza; mi sa che le tue idee sono ferme agli anni '70-80.
Quello che non mi torna, nei discorsi sull'AI, è l'idea che non abbia bisogno della coscienza per poter giungere ad agire autonomamente; se l'AI si comporta esattamente come il cervello umano, che necessità avrebbe, l'uomo, di possedere una coscienza: non sarebbe superflua anche nel suo caso, dato che potrebbe comunque agire autonomamente anche lui, pur essendone sprovvisto?
ci sono due possibilità: l'evoluzione, che ha "programmato" anche il dna e tante altre cose...oppure qualcuno di superiore a noi.
“ che necessità avrebbe, l'uomo, di possedere una coscienza: „
prima di essere così certi che l'uomo possieda una coscienza, bisognerebbe capire cosa sia la coscienza. tu lo sai? per quanto ne sappiamo, potrebbe essere semplicemente il nostro cervello che la crea in un continuo cortocircuito di stimoli e risposte che generano altri stimoli e via così. Quando dormiamo, o perdiamo conoscenza, non abbiamo coscienza. Questa riparte solo quando riparte, fisicamente e chimicamente, il cervello. E ci sono persone con lesioni al cervello che, apparentemente, paiono proprio non avere alcuna coscienza.
"per quanto ne sappiamo, potrebbe essere semplicemente il nostro cervello che la crea in un continuo cortocircuito di stimoli e risposte che generano altri stimoli e via così"
Dunque ne ammetti l'esistenza, ma non sai cosa sia (come tutti, per altro)
“ potrebbe essere semplicemente „
potrebbe essere??? O lo sai, o non lo sai; e se non lo sai, come puoi affermare che
“ Il nostro cervello e tutta la parte biologica non hanno ormai da decenni più nessun segreto sul loro funzionamento, che è tutt'atro che misterioso „
come se la coscienza non avesse alcuna funzione o alcuna relazione col funzionamento del pensiero (cioè del cervello)? Queste sono parole tue:
“ Prima di discutere sulla possibilità che una AI abbia una coscienza, secondo me sarebbe da capire cosa sia la "coscienza". Quanto è una semplice ricezione ed elaborazione dei segnali del nostro corpo e quanto sia qualcosa magari di ancora superiore „
E' evidente che non conosciamo ancora totalmente il funzionamento del cervello e, guarda caso, la parte di cui ancora non conosciamo il funzionamento è proprio quella che manca all'AI
Per chi non lo conoscesse, consiglio qualche "giro" con l'LLM cinese DeepSeek. E' proposto dall'omonima startup cinese che 2 anni fa, out of the blue, ha comperato 10 000 GPU Nvidia, assunto alcuni tra i migliori sviluppatori AI e ora ha tirato fuori un prodotto competitivo con GPT d iOpenAI e company ( qui un articolo di Wired) In breve: - DeepSeek-V3: LLM multilingue basato su transformers (come GPT, Gemini,Llama, etc) per analisi testuale (no video, audio, etc) - Ultimo training: luglio 2024 - Context window massima (dimensione massima del prompt, cioe' dell'input): 128k tokens, circa 170 pagine A4 - lingue preferite: cinese mandarino e inglese (lingua pivot, quella usata prevalentemente per l'analisi testuale): c. mandarino - numero parametri: MoE (Mixture of Experts) con 670B parametri di cui 37B attivati mediamente ad ogni richiesta - modello open source: si' (https://github.com/deepseek-ai/DeepSeek-V3) - possibilià di fine-tuning: ? - disponibilità API: si' - performance comparison rispetto altri LLM, secondo DeepSeek: Areas Where I Compare to Other LLMs:
General Knowledge and Reasoning: I perform on par with models like GPT-4 and Gemini in terms of general knowledge, reasoning, and problem-solving. However, the exact performance depends on the specific task and domain.
Coding and Math: I am competitive in coding and mathematical tasks, similar to GPT-4 and Gemini. However, specialized models like Codex (for coding) or AlphaCode might outperform me in niche programming tasks.
Multilingual Support: While I excel in English and Chinese, models like GPT-4 and Gemini may have broader multilingual support due to their more diverse training datasets.
Multimodal Capabilities: Unlike Gemini or GPT-4 Vision, I am not multimodal—I cannot process images, audio, or video. If you need multimodal capabilities, you'd need to use one of those models.
Che cosa ne pensi di questo argomento?
Vuoi dire la tua? Per partecipare alla discussione iscriviti a JuzaPhoto, è semplice e gratuito!
Non solo: iscrivendoti potrai creare una tua pagina personale, pubblicare foto, ricevere commenti e sfruttare tutte le funzionalità di JuzaPhoto. Con oltre 251000 iscritti, c'è spazio per tutti, dal principiante al professionista.