| inviato il 01 Febbraio 2025 ore 23:24
Caso d'uso pratico. Mi tocca studiare un po' Da Vinci Resolve perché mi serve per alcune cose fotografiche ma non l'ho mai usato. Sono a zero. Ho fatto domande a Chat GPT che fondamentalmente mi ha dato risposte... sbagliate. Pur avendo specificato la versione 19 che uso. Allora ho dato come fonte a NotebookLM tutti i manuali che si trovano sul sito BlackMagic anche se si riferiscono alla versione 18. Adesso ottengo le risposte giuste... I manuali sono in inglese, ma parliamo in italiano. |
| inviato il 01 Febbraio 2025 ore 23:51
Tanto non c'è niente da fare: gli algoritmi del ML (DL, LLM, generativi ecc) possono davvero aiutare solo ed esclusivamente in ambiti per i quali sono stati addestrati a dovere. Un po' come le persone, d'altro canto... E proprio come tante persone, se glielo chiedi ma non lo sanno, non stanno in silenzio e la boyata te la devono dire comunque. |
| inviato il 02 Febbraio 2025 ore 0:31
“ E proprio come tante persone, se glielo chiedi ma non lo sanno, non stanno in silenzio e la boyata te la devono dire comunque. „ Come sui forum....? |
| inviato il 02 Febbraio 2025 ore 0:39
 |
| inviato il 02 Febbraio 2025 ore 10:11
“ Ho fatto domande a Chat GPT che fondamentalmente mi ha dato risposte... sbagliate. Pur avendo specificato la versione 19 che uso. Allora ho dato come fonte a NotebookLM tutti i manuali che si trovano sul sito BlackMagic anche se si riferiscono alla versione 18. Adesso ottengo le risposte giuste... Sorriso „ Ale, dovresti fare la medesima operazione su ChatGpt, caricare gli stessi documenti e dopo fargli domande altrimenti i contesti sono diversi. Se ti limiti a chiedere e basta a gpt lui usa il suo addestramento che potrebbe non essere sufficente, al limite fa qualche ricerca web ma comunque non sará mai a livello dei manuali |
| inviato il 02 Febbraio 2025 ore 10:15
Hai ragione. Farò la prova. |
| inviato il 02 Febbraio 2025 ore 21:16
come si chiede a chatgpt di usare un manuale pdf come riferimento? |
| inviato il 02 Marzo 2025 ore 15:13
EDIT vinto dalla frustrazione nell'uso di chatgpt per i miei scopi mi sono arreso all'uso di notebookLM... peccato non averlo fatto mesi fa. è proprio quello che cercavo, le risposte non le inventa. lo straconsiglio a tutti. quando gli do dei ocumenti con immagini è possibile chiedergli di mostrare anche le immaginia corollario di una speigazione? |
| inviato il 02 Marzo 2025 ore 15:51
Non lo so. Io ultimamente gli do in pasto delle registrazioni di riunioni dove ognuno dice la sua senza ordine negli interventi e se la cava molto bene... |
| inviato il 02 Marzo 2025 ore 15:53
Appena ho tempo volevo provare a tendergli un tranello.... Scrivo due report sullo stesso argomento ma con informazioni che si contraddicono. Vediamo come si comporta. |
| inviato il 02 Marzo 2025 ore 18:26
Io a chatGP ho provato a chiedere dei confronti tra alcune action cam ed alcuni obiettivi. Ha toppato confondendo il fatto che siano autofocus oppure no. Oppure a volte spara risposte contraddittorie e mi diverto a farglielo presente, allora si scusa e rettifica dicendo in pratica quello che gli ho appena detto io (che poi magari non e' corretto nemmeno quanto gli ho detto io). Ma copilot e' pure peggio (siamo OT pero'). Si ostina a voler aver ragione. Anche se gli mando le specifiche ufficiali del produttore, mi risponde che evidentemente hanno introdotto un altro modello (cosa non vera per nulla nel mio caso). |
| inviato il 03 Marzo 2025 ore 9:12
L'integrazione del contesto è la capacità chiave affinchè questi sistemi siano utili in ambiente professionale, che non sia la programmazine o la capacità di rispondere a domande, questa ultima attività per la quale perplexity - per i miei usi - è ottimo. In copilot è prevista solo dalla fine di Marzo (se va bene, perchè è già stata posticipata) e non è chiaro con quale abbonamento e con quali quantità di fonti trattate (pare max 10). C'è una certa confusione sui termini e sugli abbonamenti necessari per le funzioni AI in quell'ecosistema...peccato, perchè sarebbe quello meglio integrato con strumenti di OA. La stessa capacità è teoricamente supportata da chatGPT usando i Projects, ma non sempre funziona e quando lo fa, ha parecchi limiti sulla quantità di analisi e produzione. Alcuni suggeriscono di ricaricare nella chat i file che stanno già nel progetto, ma anche così spesso non capisce cosa gli si chiede. E' sempre complicato fare riferimento ad una fonte documentale specifica. E' come se fosse "distratto" dalla sua conoscenza e non si curasse più di tanto di quello che gli si dice. NotebookLM, è stato il primo ed è ancora l'unico che funziona bene quando il contesto è delimitato da un set di documenti. L'integrazione con GDocumenti e Gemini è già molto utile, sebbene gli strumenti di OA di Google non siano potenti come in Microsoft (specie word), ma con la terna NBLM, GDocumenti e Gemini si ha set efficace. Dà una idea abbastanza chiara di come sarà diverso il lavoro di chi produzione documenti tecnici o scientifici tra un anno. ...e nel frattempo sono arrivati i dLLM che usano la diffusione (come nella generazione di immagini) al posto della trasformazione (come tutti gli LLM fino a ora). La differenza? 2-3 volte più rapidi che, su documenti complessi, fa una differenza abissale. Da qui ad un anno ne vedremo delle belle! |
| inviato il 03 Marzo 2025 ore 10:59
solo che "di qui a un anno ne vedremo delle belle" son già tre anni che si dice tutti a far pressa sull'essere early adopter, ma ho la sensazione che impiegando lo stesso tempo nel farsi una competenza specifica extra AI sia ora più remunerativo. perché con ai acceleri dei lavori che sai fare, se non sai cosa sta facendo al momento non puoi delegare, troppo rischioso |
| inviato il 03 Marzo 2025 ore 11:54
@Motofoto Complimenti per aver colto la novità degli LLM basati sulla diffusione invece che sui transformers In realtà è un'idea abbastanza vecchia ("A Survey of Diffusion Models in Natural Language Processing", Zhou et al , arXiv, 2023), però in un paper di poche settimane fa ("Large Language Diffusion Models" by Nie et al, arXiv, 2025) è stato proposto LLaDA, un modello vero e proprio che può rivaleggiare con LLM tradizionali di piccole dimensioni. In realtà anche LLaDA usa i transformers, ma non usa l'approccio aurogressivo, quello di predire un token dati quelli precedenti. Sta diventando un problema seguire tutto, nel campo degli LLM. Prima le cose andavano a velocità vertiginosa, ora stanno accelerando Se non si riesce a intuire qual è la traccia giusta e seguire quella tralasciando il "rumore di fondo" non si sopravvive. Comunque sto approfondendo il paper su LLaDA, se a qualcuno interessa posso riassumere i punti salienti. Fine OT, scusatemi |
| inviato il 03 Marzo 2025 ore 11:57
sarebbe molto interessante Illecitnom |
Che cosa ne pensi di questo argomento?Vuoi dire la tua? Per partecipare alla discussione iscriviti a JuzaPhoto, è semplice e gratuito!
Non solo: iscrivendoti potrai creare una tua pagina personale, pubblicare foto, ricevere commenti e sfruttare tutte le funzionalità di JuzaPhoto. Con oltre 251000 iscritti, c'è spazio per tutti, dal principiante al professionista. |

Metti la tua pubblicità su JuzaPhoto (info) |