Precipita Volo Air India diretto a Londra AI 171


Riusciamo a non coinvolgere l’AI per scrivere risposte? Non è il Vangelo e prende cantonate anche in funzione di come si pone la domanda. Non c’è alcuna necessità di scrivere pensieri non propri.
Grazie.[\b]

su cose deterministiche l'ai non puo' sbagliare, sono io che evito di scrivere tutto il papiro di cose
 
su cose deterministiche l'ai non puo' sbagliare, sono io che evito di scrivere tutto il papiro di cose
Su cose deterministiche AI puo' sbagliare e come, per due motivi (scusate l'Italiano, di solito parlo di queste cose in Inglese)

(1) AI viene 'addestrato' (trained), il principio "Garbage In, Garbage Out" vale anche per l'Italiano.
(2a) AI non puo' valutare la qualita' delle fonti, raccoglie quello che c'e' su internet. A volte ci sono fonti poco aggiornate, o non affidabili e vengono 'raccolte' lo stesso da AI. Spetta agli umani valutare l'affidabilita' del risultato, possibilmente controllando la fonti. Per esempio, Perplexity.ai cita le fonti alla fine e le richiama come note nel testo della risposta.
(2b) La verifica delle fonti e' ancora piu' importante su questuoni deterministiche perche' puo' capitare che il motore di ricerca confronti mele con pere,

Se tu mi dici che non sei specialista, ti rispondo che non e' detto che chi 'addestra' AI sia specialista. Io personalmente uso AI per avere informazioni ma poi verifico. Troppa gente pensa che ChatGPT sia vangelo e non verifica.

Per quello che mi riguarda, e' perfettamente legittimo usare AI per informazioni, il copia/incolla da AI puo' dare adito a cantonate (per non dire di peggio) galattiche.
 
  • Like
Reactions: XzXzXz
Su cose deterministiche AI puo' sbagliare e come, per due motivi (scusate l'Italiano, di solito parlo di queste cose in Inglese)

(1) AI viene 'addestrato' (trained), il principio "Garbage In, Garbage Out" vale anche per l'Italiano.
(2a) AI non puo' valutare la qualita' delle fonti, raccoglie quello che c'e' su internet. A volte ci sono fonti poco aggiornate, o non affidabili e vengono 'raccolte' lo stesso da AI. Spetta agli umani valutare l'affidabilita' del risultato, possibilmente controllando la fonti. Per esempio, Perplexity.ai cita le fonti alla fine e le richiama come note nel testo della risposta.
(2b) La verifica delle fonti e' ancora piu' importante su questuoni deterministiche perche' puo' capitare che il motore di ricerca confronti mele con pere,

Se tu mi dici che non sei specialista, ti rispondo che non e' detto che chi 'addestra' AI sia specialista. Io personalmente uso AI per avere informazioni ma poi verifico. Troppa gente pensa che ChatGPT sia vangelo e non verifica.

Per quello che mi riguarda, e' perfettamente legittimo usare AI per informazioni, il copia/incolla da AI puo' dare adito a cantonate (per non dire di peggio) galattiche.

sopra c'è un documento della FAA penso sia sufficiente, comunque il microprocessore mn4, dopo migliaia di cicli caldo/freddo, le sfere di saldatura del BGA si criccano, Il firmware interpreta l’interruzione come fault interno, il motore passa in modalità “loss-of-thrust-control". L’analisi GE/FAA ha dimostrato che il problema nasce SOLO (ndr: loro dicono) dall’invecchiamento meccanico del chip (non da software) e può presentarsi intorno a 10-12 000 cicli.
 
Contaminazione del carburante, se alla fonte (Ahmedabad dovrebbe avere il rifornimento da terra, non via autobotte), avrebbe fatto cadere un altro po' di aerei che son partiti da li' quel giorno.

strano, esempio: nel volo cathay 780 non c'è stato lo stesso problema negli altri aerei.
 
Su cose deterministiche AI puo' sbagliare e come, per due motivi (scusate l'Italiano, di solito parlo di queste cose in Inglese)

(1) AI viene 'addestrato' (trained), il principio "Garbage In, Garbage Out" vale anche per l'Italiano.
(2a) AI non puo' valutare la qualita' delle fonti, raccoglie quello che c'e' su internet. A volte ci sono fonti poco aggiornate, o non affidabili e vengono 'raccolte' lo stesso da AI. Spetta agli umani valutare l'affidabilita' del risultato, possibilmente controllando la fonti. Per esempio, Perplexity.ai cita le fonti alla fine e le richiama come note nel testo della risposta.
(2b) La verifica delle fonti e' ancora piu' importante su questuoni deterministiche perche' puo' capitare che il motore di ricerca confronti mele con pere,

Se tu mi dici che non sei specialista, ti rispondo che non e' detto che chi 'addestra' AI sia specialista. Io personalmente uso AI per avere informazioni ma poi verifico. Troppa gente pensa che ChatGPT sia vangelo e non verifica.

Per quello che mi riguarda, e' perfettamente legittimo usare AI per informazioni, il copia/incolla da AI puo' dare adito a cantonate (per non dire di peggio) galattiche.
Ecco cosa mi rispose Meta AI, aprile 2025
 

Allegati

  • IMG-20250406-WA0000.jpg
    IMG-20250406-WA0000.jpg
    205 KB · Visualizzazioni: 53
sopra c'è un documento della FAA penso sia sufficiente, comunque il microprocessore mn4, dopo migliaia di cicli caldo/freddo, le sfere di saldatura del BGA si criccano, Il firmware interpreta l’interruzione come fault interno, il motore passa in modalità “loss-of-thrust-control". L’analisi GE/FAA ha dimostrato che il problema nasce SOLO (ndr: loro dicono) dall’invecchiamento meccanico del chip (non da software) e può presentarsi intorno a 10-12 000 cicli.
Calma, io ho semplicemente commentato la tua affermazione "Su cose deterministiche AI non puo' sbagliare". Nient'altro. Comunque, fidati di uno con piu' esperienza di te... nella comunicazione scritta devi stare attento a cosa rispondi. Altrimento le discussioni si prolungano fino alla noia
 
cos'è successo a Korean Airlines?
Se ci si sta riferendo all’episodio del TCMA con doppio shutdown a terra, era un 787 della ANA.
Da quello che ho capito il TCMA (non ho il manuale del 787 quindi andrebbe verificata bene) è una funzione di protezione che:
- con aereo a terra
- con thrust lever su idle
- engin above idle o not decelerating normally
Comanda lo spegnimento del motore per evitare una situazione di uncommanded high thrust asymmetry.
Per far si che accada però, ripeto, l’aereo deve essere on ground.


Inviato dal mio iPhone utilizzando Tapatalk Pro
 
  • Like
Reactions: indaco1 and ally01
Con l'AI avremo tre tipi di persone, quelli che la usano, quelli che fanno finta di non usarla e quelli che restano indietro. I piu' furbi sono il secondo tipo, ma devono stare attenti a non farsi beccare.

Diciamo che e' una fonte preziosissima ma che richiede domande giuste e verfiche molto attente. Soprattutto sui fatti meno noti, quando non sa qualcosa inventa e te lo fa pure sembrare verosimile.

Nel nostro caso va bene per farsi tirare fuori un po' di ipotesi, precedenti e analisi da cui partire ma sono sicuramente incompleti e sicuramente ci sono errori e allucinazioni.
 
Nel nostro caso va bene per farsi tirare fuori un po' di ipotesi, precedenti e analisi da cui partire ma sono sicuramente incompleti e sicuramente ci sono errori e allucinazioni.

Anche no. Declino meglio: non sta nè in cielo, nè in terra, che si costruiscano post con domande generiche all’AI per scrivere post senza logica dietro, spegnendo il proprio di cervello. Abbiamo forumisti piloti e tecnici che possono spiegare e aiutare, ma se non si hanno competenze specifiche (come è il mio caso per primo), è meglio leggere e chiedere spiegazioni, non impartire lezioni. E spero di non dovere tornare ancora sull’argomento.
 
solamente sul discorso del carburante avrò 50 pagine, qual'è il tipo di carburante usato, le compagnie indiane,
le procedure utilizzate attualmente, come avvengono incidenti per questo problema, dove invece si stanno spostando le
compagnie per evitare problemi di quel tipo ad esempio lufthansa e flydubai, l'elenco di tutti gli incidenti aerei
con vittime e non e le relative cause, fatto in pochissimo tempo, ovviamente con tutti i riferimenti.
Se lo facevo con altri strumenti ci volevano 3 mesi invece di 30 minuti.
Ho evitato di scrivere perchè poi sapevo che c'erano contestazioni.
il settore aereo è fortemente deterministico (non sto parlando delle strategie ma degli aerei e delle procedure),
inoltre le informazioni in rete sono quasi tutte certificate, per cui in un quadrante ipotetico si collocano in alto
a destra (da non deterministico = 0 a deterministico 100 e da notizie non certificate 0 a certificate = 100).
 
@RMI, se non fossi stato ancora chiaro, devi chiudere coi commenti basati sull’AI! Ultimo avviso, poi scatta la sospensione.