|
|
inviato il 07 Gennaio 2026 ore 10:16
Giustissimo |
|
|
inviato il 07 Gennaio 2026 ore 10:19
Di gratuito che "dovrebbe" conservare privatezza c'è l'interlocutore su browser che vi esce con la ricerca di DuckDuckGo, dovrebbe essere chat-gpt 4o-mini sotto. Però non so se può "impanciarsi" pdf o documenti/articoli e farne sunti ed estratti. Anzi, aspetta, glielo chiedo se può farlo. EDIT: come non detto, "ha detto" che non può farlo (effettivamente è un chatbot integrato in una ricerca browser, me l'aspettavo come limitazione)... |
|
|
inviato il 07 Gennaio 2026 ore 18:59
con me chat gpt prova a rispondere secondo il contesto e canna clamorosamente. cita dei mixer perché ho fatto delle ricerche mesi fa. una roba un po' povera. google ai invece resta sul pezzo e mi trova le fonti, me le linka, me le vado a vedere subito. forse il mio ambito è borderline per il database che gli hanno fornito. io comunque resto dell'idea che tutto questo lavoro sulle AI sia un modo per togliere a Google il monopolio per le ricerche e quindi la raccolta dei dati sulle ricerche. anche una minima frazione di quella mo9ntagna di dati coprirebbe alla grande tutti gli investimenti fatti finora |
|
|
inviato il 09 Gennaio 2026 ore 20:06
@Pingalep Vengono chiamate allucinazioni: tipiche di un costrutto algoritmico che tutto sa, ma nulla in realtà capisce. Ma se si impara a riconoscerle, piegando l'algoritmo al proprio volere, il tutto risulta comodo. Questo risulta particolarmente vero se si conosce già molto bene il campo di conoscenza per il quale si sta chiedendo qualcosa al chatbot (come macro area, intendo: informatica, biologia, medicina, meccanica, sport, ecc...). Il problema sarà di chi cresce con la convinzione he quella sia verità rivelata a prescindere da cosa gli viene chiesto: ecco, lì potrebbero cominciare a venir fuori dei bei mostri. |
|
|
inviato il 09 Gennaio 2026 ore 20:42
per minimizzare le allucinazioni nel prompt bisogna chiedere alla AI di indicare rigorosamente le fonti da cui attinge le informazioni ovvero di precisare se si tratta di sue deduzioni |
|
|
inviato il 09 Gennaio 2026 ore 23:14
Il problema e' (come e' stato detto poco sopra) che tutto sa ma non capisce niente. Sa tutto in quanto attinge ad una quantità di dati enorme, ma non avendo la possibilità di capire puo' diventare pericolosa. E' che (secondo me) e' sbagliato chiamarla "Intelligenza Artificiale". Sono sistemi esperti che ritrovano dati in pochissimo tempo e li collezionano generando frasi di scopo sensato. Io mezz'ora fa mi sono divertito con ChatGPT. Non riuscivo a ricordare come si facesse un'operazione banalissima sulla Nikon Zf. Volevo caricare nuove "ricette fotografiche" scaricate dal sito NikonImaging. Avevo gli slot di memoria della Zf (9 in tutto) pieni e non mi ricordavo piu' come si facesse a svuotarli. (Non si agisce direttamente dal corpo della fotocamera come si fa con i Picture Control). Credo di averci giocato solo una volta qualche mese fa caricando appunto 9 ricette. Non riuscivo a cancellarle. Ovvio che la soluzione migliore sarebbe stata o andare sul sito e/o leggersi il manuale. Ho chiesto invece a ChatGPT. Prima mi ha dato informazioni totalmente sbagliate (a caso), poi mi e' venuto in mente che non si fa dalla fotocamera ma dal sito Nikon apposito (ed e' necessario connettere la Nikon al PC che si sta utilizzando), ma non mi ricordavo piu' il particolare di come ripulire gli slot pieni. Ho quindi chiesto lumi a ChatGPT. ChatGPT ha negato che si facesse dal sito ed insisteva proponendomi Menu' plausibili ma inesistenti. Poi ho smanettato un po' da solo e mi e' venuto in mente (o meglio ho trovato sul sito) che si faceva tutto dal sito con fotocamera connessa. Ho fatto cio' che serviva ed ho risolto il problema. Non contento ho chiesto a ChatGPT se le info le da' a caso, sperando di azzeccarle ogni tanto, oppure se le verifica sui manuali ed ho spiegato io la procedura. A quel punto ha ammesso di aver sbagliato e si e' scusata (scusata al femminile in quanto AI e' femminile ) Ma mi capita troppe volte questo problema. E se sono argomenti che conosco bene, riesco a gestirla ed ho sempre ragione io al 99.9 per cento, se sono argomenti che non conosco per nulla li verifico in altro modo, o evito di accettarli passivamente. Il problema e' che c'e' molta gente che creda sia veramente una intelligenza consapevole e senziente. E questo e' molto rischioso, soprattutto per i giovani che pensano lo sia. |
|
|
inviato il 09 Gennaio 2026 ore 23:30
Oggi in studio avevo un caso clinico per me molto chiaro pur non essendo affatto banale. Avevo la necessità di scrivere una relazione per un collega ematologo che ha in cura il mio stesso paziente, avevo anche la necessità di scrivere un consenso informato speciale per questo raro caso clinico. Ho caricato in chatgpt la RX endorale e un PDF con gli esami ematici (ovviamente ho oscurato i riferimenti al paziente) Gli ho spiegato cosa dovevo fare e perché. In 20 secondi aveva prodotto quanto richiesto, fornendomi anche il supporto della letteratura che confortava la mia scelta terapeutica. Mi ha addirittura proposto una check list per aiutarmi a non dimenticare nulla durante il percorso clinico terapeutico. Ha prodotto anche una nota operativa per il mio staff di assistenti in cui si spiegava cosa andavamo a fare e perché lo facevamo e quali erano le criticità che si sarebbero potute verificare per quanto attiene le loro funzioni. Per me è MOSTRUOSO. Ovvio che va tutto supervisionato e controllato, ma quando facevo da solo ci mettevo almeno due ore per fare lo stesso lavoro. Oggi ci ho messo 25 minuti.... |
|
|
inviato il 09 Gennaio 2026 ore 23:54
“ Il problema e' (come e' stato detto poco sopra) che tutto sa ma non capisce niente. Sa tutto in quanto attinge ad una quantità di dati enorme, ma non avendo la possibilità di capire puo' diventare pericolosa. „ Credo che questo ragionamento sia semplicistico, per il poco che ho usato le IA direi che dietro c’è molto di più (sull’argomento sono poco aggiornato da un punto di vista teorico essendomi fermato all’uso del prolog per il ragionamento automatico agli inizi degli anno ‘90), quando si passa un documento a chatGPT (ma anche a Copilot) su quel documento l’IA è capace di fare estrapolazioni che vanno oltre il contenuto del documento stesso. Il problema vero è quello menzionato da blackbird, nell’ambito del mio ramo io mi accorgo se l’IA commette qualche errore e comunque anni di esperienza mi portano sempre a mettere in dubbio i risultati di una elaborazione, oggi osservo che si è molto meno critici. Ma questo non riguarda solo l’uso dell’IA: una persona abituata a calcolare a mente se usa una calcolatrice si accorge subito se ha commesso qualche errore, oggi mi capita di vedere errori evidenti perché in calcoli con le funzioni trigonometriche c’è chi dimentica di configurare la calcolatrice per rappresentare gli angoli in radianti e non in gradi. |
|
|
inviato il 10 Gennaio 2026 ore 10:55
“ Ovvio che va tutto supervisionato e controllato, ma quando facevo da solo ci mettevo almeno due ore per fare lo stesso lavoro. Oggi ci ho messo 25 minuti.... „ Credo il succo stia tutto qui: sono strumenti DI LAVORO, per chi fa specifici lavori, ed è in grado, appunto di controllare pedissequamente quanto gli viene proposto. Per queste persone, i chatbot con dietro le generative basate su LLM sono un risparmio di tempo ed un vettore di emancipazione notevolissimo. Per tutti gli altri, sono una condanna. “ dietro c’è molto di più „ Eh... insomma... aspetta che ti faccio l'esempio con il quote successivo. “ su quel documento l’IA è capace di fare estrapolazioni che vanno oltre il contenuto del documento stesso „ Vero: anche io gli ho dato in pasto manuali per fargli domande discorsive e ricevere riassunti che andassero oltre la frase estratta dal manuale (quella me la cerco da me). Però poi quando gli chiedi un "esempio funzionante di configurazione" e ti ci mette anche parametri INVENTATI che non stanno nel manuale (ma che appaiono davvero plausibili e appetibili)... beh, capisci che dietro c'è solo l'algoritmo, nessuna "capacità di capire". Un essere umano molto preparato mi avrebbe risposto "credo di intuire che vuoi fare questo, ma [non si può fare] / [non so come farlo] ". Un algoritmo invece è programmato per dirti "non si può" solo quando la domanda è precisa in ogni dettaglio e quando le fonti sono concordi sul fatto che non si possa fare quasi al 100%. Sennò "ci prova" sempre e comunque -- e se poi, come spesso succede, davvero non si può fare, la frittata te l'ha fatta ormai. Questo intendevo per "non capiscono", in definitiva. Una remissività maggiore o un'impostazione più tendente a chiedere maggiori chiarimenti all'interlocutore umano sarebbe secondo me quello che dovrebbero aggiungere a questi strumenti. Sono pochissimi i casi in cui mi sono visto rispondere "ho bisogno di più dettagli / ho bisogno di questi altri dettagli" per rispondere. Invece se fai una domanda ad un essere umano è molto probabile che ti chieda in risposta altri particolari sull'argomento per completare il quadro che gli serve per risponderti. |
|
|
inviato il 10 Gennaio 2026 ore 10:59
Altro esempio per programmatori: chiedo al chatbot un esempio funzionante in un dato linguaggio di programmazione di chiamata ad un modulo che estrae informazioni da un keystore di sicurezza. Me lo fa. Tutto bellissimo, se non che mi ha fatto un codice che chiamava il modulo passandogli i parametri in forma esadecimale come dato, come argomento diretto della funzione: mentre invece poi scopro che il suddetto modulo (e lo vado a scoprire solo con le domande successive, a seguito dell'errore ricevuto facendo girare il programma!) può esser richiamato solo passandogli l'INDIRIZZO DI MEMORIA a cui si sono immagazzinati i parametri da passargli. E questa è una cosa che SAPEVA dall'inizio (sa tutto, come detto, e lo ha saputo dire quando gli ho chiesto chiarimenti sull'errore dopo) ma ha reputato, per i pesi e le strade decisionali interne, di non scrivere. Per chi è avvezzo alla cosa, ha già capito la differenza; per chi non è avvezzo: mi ha risposto picche con briscola a cuori. |
|
|
inviato il 10 Gennaio 2026 ore 11:09
Siamo nel mezzo al fiume di un cambiamento epocale. Non siamo già sulla sponda opposta siamo nel divenire. La storia è piena zeppa di persone che si sono ritrovate durante grandi cambiamenti e nemmeno se ne sono accorte. |
|
|
inviato il 10 Gennaio 2026 ore 14:12
Non metto assolutamente in dubbio le capacità di sintesi. Sicuramente e' molto utile e molto comodo. Io, nel mio utilizzo diretto (piu' per curiosità che per necessità nel mio caso specifico) noto che dipende spesso anche da diversi fattori. Prima considerazione (parlo di ChatGPT in particolare), io utilizzo la versione gratuita, quindi ho un numero limitato di interazioni, poi scade drasticamente e devo attendere che passi il tempo necessario per avere di nuovo maggiori funzionalità (alcune ore). Quindi penso sia ovvio che se ho solo un certo numero di interazioni ogni periodo di disponibilità, se esco da quel periodo, le risposte calano di qualità, i tempi si allungano. Quindi ci posso fare poco, dovrei pagarmi un minimo di abbonamento. E su questo punto non discuto. Stavo valutando di abbonarmi alla versione Go che e' la minima, base. Ma non ho capito bene che vantaggi avrei (a parte un maggior numero di domande che posso fare). Seconda considerazione. A volte e' precisa e fa tutte le verifiche del caso, a volte no. (Ieri sera ad esempio ho chiesto una configurazione su come si facesse un'attività banale sul mio Mac Book Pro su quale ho installato Mac OS Tahoe 26.2 e (mea culpa), ho sbagliato a scrivere la parola Tahoe e ho scritto per errore Tahoma . (Non ha recepito la parola, e mi ha risposto che non esiste questa versione di Mac OS. E fin qui, non posso che elogiare ChatGPT per la risposta assolutamente legittima e corretta). Ho poi scritto Tahoe. (Parola corretta). Mi ha risposto che la versione Tahoe non esiste e mi proponeva 13.x Tiger. A quel punto ho risposto io chiedendo:"Ma fai le ricerche prima di rispondermi o rispondi a caso? Tahoe ti assicuro che e' corretto perche' e' la versione del mio Mac OS installato ed ho appena verificato. A quel punto ha verificato, ha chiesto scusa, dicendo che effettivamente non aveva verificato e che avevo ragione io. Ora, sono cose banali, non sono problemi, anche perche' cio' che ho chiesto era qualcosa di banale e che credo non sia mai cambiata come funzionalità dalle prime versioni di Mac OS. Mi ha lasciato perplesso il fatto che molte volte non verifica di default. Poi se uno glielo chiede espressamente, chiede massima accuratezza esplicitamente, allora nulla da eccepire. |
|
|
inviato il 10 Gennaio 2026 ore 14:17
Ho usato notebook LM per preparare un esame dove avevo 40 fonti diverse tra libri, articoli scientifici e materiale didattico. È stato la mia salvezza |
|
|
inviato il 10 Gennaio 2026 ore 17:36
Tra la versione gratuita e quella a pagamento c'è un abisso. Parlo per chatGPT. Noi oramai lo usiamo pesantemente in studio, forniamo anche moltissime consulenze, produciamo blog, libri, corsi ... se sei competente nel tuo campo e lo usi come uno strumento è assolutamente insostituibile oggi. Oltre ad essere straordinario nell'aiutarti a studiare e preparare esami. Per la realizzazione della mia tesi di specializzazione è stato assolutamente impagabile. Anche per gli esami ECM è un supporto ormai irrinunciabile. Certo non lo uso per fare cose che io non saprei fare. Pertanto non lo uso per chiedergli come risolvere un problema con i settaggi di una macchina di molaggio a controllo numerico. Probabilmente un tecnico saprebbe come impostare la domanda per ottenere la risposta corretta. Quindi non mi stupisco che, specie la versione gratuita, non sappia rispondere a un settaggio di Mac o Windows. Io credo che la costruzione del prompt sia la cosa più importante nella interazione con queste tecnologie. E solo se sei GIÀ padrone del dominio che andrai a interrogare sai predisporre un prompt che genera una risposta corretta. |
|
|
inviato il 10 Gennaio 2026 ore 17:45
Max, scusa la domanda antipatica, ma chiedo veramente da uomo della strada. Nella tua azienda potrai rinunciare a qualche dipendente o collaboratore grazie al supporto di questi nuovi strumenti? |
Che cosa ne pensi di questo argomento?
Vuoi dire la tua? Per partecipare alla discussione iscriviti a JuzaPhoto, è semplice e gratuito!
Non solo: iscrivendoti potrai creare una tua pagina personale, pubblicare foto, ricevere commenti e sfruttare tutte le funzionalità di JuzaPhoto.
Con oltre 258000 iscritti, c'è spazio per tutti, dal principiante al professionista. |

Metti la tua pubblicità su JuzaPhoto (info) |