AI (Intelligenza Artificiale)
Sistemi informatici che fanno cose che di solito richiedono intelligenza umana: capire il linguaggio, riconoscere immagini, fare suggerimenti, ecc.
Regole semplici e pratiche per usare l'intelligenza artificiale in modo sicuro e intelligente – pensate anche per chi “non ne capisce niente”.
Nessun forum. Nessun commento. Solo informazioni chiare su cosa fare, cosa non fare e perché.
Qui per “AI” intendiamo soprattutto quegli strumenti che generano testi, immagini, codice o audio a partire dalle tue richieste (prompt).
Non sono maghi e non sono persone. Sono programmi addestrati su tantissimi dati per “indovinare” la prossima parola (o il prossimo pixel) più probabile.
Ogni tipo di AI è più brava in certe cose: alcune sono assistenti “da chat”, altre sono specializzate (traduzioni, codice, immagini, audio), altre ancora sono nascoste dentro app che già usi.
“Fammi i compiti.”
“Spiegami la fotosintesi come se avessi 12 anni, in un paragrafo semplice con un esempio pratico. Poi fammi 3 domande per vedere se ho capito.”
“Scrivimi una mail gentile a un collega per chiedere aggiornamenti sul progetto X. Voglio un tono amichevole ma professionale. Poi proponimi 2 versioni più brevi.”
Molti servizi di AI bloccano queste richieste. Anche se non lo fanno, la responsabilità legale e morale resta tua.
Per decisioni mediche, legali o finanziarie usa l'AI solo come aiuto a capire, non come voce finale.
Più è importante la decisione (salute, soldi, lavoro, questioni legali), più dovresti:
Sistemi informatici che fanno cose che di solito richiedono intelligenza umana: capire il linguaggio, riconoscere immagini, fare suggerimenti, ecc.
Il “cervello” dell'AI: il sistema matematico che ha imparato da tanti dati e ora genera risposte o contenuti.
Quello che scrivi o dici all'AI per dirle cosa vuoi. Un buon prompt è specifico, chiaro e dà un po' di contesto.
Quando l'AI ti risponde in modo sicuro ma in realtà sbaglia o inventa (per esempio una citazione o una fonte che non esiste).
Una forma di “parzialità” o ingiustizia nelle risposte, che può nascere dai dati con cui il modello è stato addestrato (stereotipi, squilibri, ecc.).
I messaggi precedenti nella conversazione. Molti strumenti li usano per “ricordarsi” di cosa si sta parlando, ma dopo un po' possono dimenticare le parti più vecchie.
No. Genera risposte in base ai dati con cui è stata addestrata. Non capisce come un umano e può sbagliare o essere vecchia.
Molti servizi salvano quello che scrivi per migliorare il sistema. Evita di mandare cose che non diresti a uno sconosciuto.
Spesso sì, come “tutor”: per farti spiegare, riassumere o farti domande. Consegnare lavori fatti dall'AI come se fossero tuoi però può violare il regolamento.
In molte aziende sì per bozze e idee, ma è vietato incollare dati interni o di clienti. Controlla sempre la policy della tua azienda.
Molti strumenti capiscono più lingue e a volte anche i dialetti. Se fa fatica, prova a mischiare dialetto e italiano standard o chiedile prima di “tradurre il dialetto in italiano chiaro”.
Fidati del tuo buon senso. Puoi chiedere all'AI di ricontrollare, di mostrarti le fonti o di darti un altro punto di vista – e puoi sempre ignorare una risposta che non ti convince.