ANA lancia una nuova compagnia: nasce Air Japan


Cesare.Caldi

Utente Registrato
14 Novembre 2005
37,531
1,561
N/D
ANA unveils Air Japan airline for medium-haul routes
9 Mar 2022 by Hannah Brandler

AirJapan B787-8

ANA Holdings plans to launch a new airline, Air Japan, focused on medium-haul international routes, in late 2023.

The group initially announced plans to launch the airline in 2020, but has now revealed further details on the carrier.

Styled as AirJapan, the airline will operate Boeing 787-8 aircraft under the slogan ‘Fly Thoughtful’.

The carrier is described as “neither a full-service nor low cost carrier”, and will offer fares at an “affordable price range similar to low cost carriers”.

ANA already has a charter airline called Air Japan, and the company tells Business Traveller that “the corporate structure is the same as the current Air Japan, we are simply introducing a new brand that will solely be operated by this company.”

Air Japan


The B787-8 aircraft will feature the brand logo on the tail wing, which incorporates both indigo and sunrise colours and is inspired by the “image of a kind and thoughtful hand-to-hand interaction”.

The date of the first scheduled flight has not yet been finalised, as ANA is monitoring the recovery of demand for international flights.

Hideki Mineguchi, president of Air Japan, commented:
“We are excited to begin unveiling AirJapan and the selectable service and comfortable cabin experience it will offer passengers.
“By focusing on medium-haul international routes, the ANA Group will be better equipped to meet emerging trends for international travel at a competitive price. We are proud to be part of the team that is increasing options for travelers while also bringing the same commitment to quality and safety found across the ANA Group.”

 
ANA Group have decided to suspend the AirJapan brand



ANA Group is managing the AOG situation regarding its Boeing 787 aircraft. To optimize the allocation of the Group’s resources, ANA Group have decided to suspend the AirJapan brand. Its aircraft and human resources will be consolidated into the ANA brand's operations to expand its international business.

--.png
 
C'è chi semplifica come ANA che manterrà solo due marchi uno premium e uno low cost e c'è al contrario chi complica come il Gruppo Lufthansa con un lungo elenco di compagnie e AOC diversi in cui sono suddivisi i voli.
 
ANA è una compagnia con due marchi con sede in Giappone.
Il gruppo Lufthansa -lo dice il termine stesso "gruppo"- è formato da più compagnie, ciascuna con sede in un paese e ciascuna con il suo AOC.
Il paragone non sta in piedi. Al massimo può valere per la Germania, dove ci sono più sottocompagnie. Ma non è la sola, ci sono precedenti in tutta Europa.
 
ANA Group have decided to suspend the AirJapan brand



ANA Group is managing the AOG situation regarding its Boeing 787 aircraft. To optimize the allocation of the Group’s resources, ANA Group have decided to suspend the AirJapan brand. Its aircraft and human resources will be consolidated into the ANA brand's operations to expand its international business.

View attachment 23392

Interessante notare la parte iniziale; “gestire meglio gli AOG”, ossia aircraft on the ground. Ossia “me s’è svampato il sette-otto”.

Effettivamente non puoi fare swaps in maniera efficiente se hai aerei sotto AOC diversi.
 
Interessante notare la parte iniziale; “gestire meglio gli AOG”, ossia aircraft on the ground. Ossia “me s’è svampato il sette-otto”.

Effettivamente non puoi fare swaps in maniera efficiente se hai aerei sotto AOC diversi.
Bisogna vederla da un altro punto di vista, l'errore dimostra che l'articolo è stato scritto da un essere umano e proprio perchè umano può sbagliare. Se fosse stato scritto dall AI sarebbe stato senza errori ma avremo avuto un posto di lavoro in meno e un giornalista disoccupato. Questo ovviamente è solo un esempio di quanti posti di lavoro in molti settori può fare perdere l'AI. E' una tecnologia con molto potenziale, ma ha anche molti aspetti negativi tra cui quello di sostituire l'uomo in molte professioni rendendolo inutile. Tornado all' esempio personalmente preferisco un articolo che abbia una lettera sbagliata ma scritto da un umano
 
Bisogna vederla da un altro punto di vista, l'errore dimostra che l'articolo è stato scritto da un essere umano e proprio perchè umano può sbagliare. Se fosse stato scritto dall AI sarebbe stato senza errori ma avremo avuto un posto di lavoro in meno e un giornalista disoccupato. Questo ovviamente è solo un esempio di quanti posti di lavoro in molti settori può fare perdere l'AI. E' una tecnologia con molto potenziale, ma ha anche molti aspetti negativi tra cui quello di sostituire l'uomo in molte professioni rendendolo inutile. Tornado all' esempio personalmente preferisco un articolo che abbia una lettera sbagliata ma scritto da un umano
Non c'è nessuna lettera sbagliata, come spiegato da Scarab: il problema di base sono proprio i 787 che ciclicamente restano fermi a terra.

Se le compagnie sono formalmente due, non si possono fare sostituzioni all'ultimo tra operatori diversi per sopperire al fermo.
Se la compagnia è una sola, diventa un banale aircraft change.
 
  • Like
Reactions: FLRprt and Scarab
Bisogna vederla da un altro punto di vista, l'errore dimostra che l'articolo è stato scritto da un essere umano e proprio perchè umano può sbagliare. Se fosse stato scritto dall AI sarebbe stato senza errori ma avremo avuto un posto di lavoro in meno e un giornalista disoccupato. Questo ovviamente è solo un esempio di quanti posti di lavoro in molti settori può fare perdere l'AI. E' una tecnologia con molto potenziale, ma ha anche molti aspetti negativi tra cui quello di sostituire l'uomo in molte professioni rendendolo inutile. Tornado all' esempio personalmente preferisco un articolo che abbia una lettera sbagliata ma scritto da un umano
Non capisco dove sia l'errore. AOG sta per Aircraft On the Ground, AOC sta per Airline Operator Certificate (o qualcosa di simile) sono due sigle diverse.
 
  • Like
Reactions: Scarab
Bisogna vederla da un altro punto di vista, l'errore dimostra che l'articolo è stato scritto da un essere umano e proprio perchè umano può sbagliare. Se fosse stato scritto dall AI sarebbe stato senza errori ma avremo avuto un posto di lavoro in meno e un giornalista disoccupato. Questo ovviamente è solo un esempio di quanti posti di lavoro in molti settori può fare perdere l'AI. E' una tecnologia con molto potenziale, ma ha anche molti aspetti negativi tra cui quello di sostituire l'uomo in molte professioni rendendolo inutile. Tornado all' esempio personalmente preferisco un articolo che abbia una lettera sbagliata ma scritto da un umano

Mmmh no.

Ci riprovo: ANA sta chiudendo Air Japan perchè, in caso di situazione AOG (Aircraft On Ground, aereo rotto nzomma) avere una flotta divisa tra due AOC (Air Operators Certificate) non permette di fare swaps.

Per fare un esempio, a un 787 di ANA Mainline parte un Trent 1000 (cosa che succede, diciamocelo). Serve un rimpiazzo. Se ANA non ha aerei in standby ma Air Japan ne ha due, lo scambio non si può fare perchè sono sotto due AOC diversi. O meglio, si può fare ma ANA deve dire all’ENAC giapponese “quel 787 di Air Japan là lo metto in leasing ad ANA”, e non è qualcosa che fai in due ore.
 
Ultima modifica:
Bisogna vederla da un altro punto di vista, l'errore dimostra che l'articolo è stato scritto da un essere umano e proprio perchè umano può sbagliare. Se fosse stato scritto dall AI sarebbe stato senza errori ma avremo avuto un posto di lavoro in meno e un giornalista disoccupato. Questo ovviamente è solo un esempio di quanti posti di lavoro in molti settori può fare perdere l'AI. E' una tecnologia con molto potenziale, ma ha anche molti aspetti negativi tra cui quello di sostituire l'uomo in molte professioni rendendolo inutile. Tornado all' esempio personalmente preferisco un articolo che abbia una lettera sbagliata ma scritto da un umano

Parti da preconcetti, e non analizzi la questione.
Anzitutto: a me interessa che l'articolo riporti informazioni utili e veritiere. E questo può accadere/non accadere SIA con l'AI, SIA con l'omino che lo scrive.
In secondo luogo, l'AI per scrivere un "articolo" deve necessariamente essere interpellata da un umano, il quale deve conoscere sia il meccanismo di funzionamento dell'AI, sia la materia per la quale chiede l'aiuto, andare a verificare fonti e contenuti, e poi aggiustare il tutto.
In terza battuta, l'AI è un validissimo aiuto alla persona, ma non può sostituirla in toto.
In ultima istanza, nel caso, più che il giornalista, quelli che andrebbero a perdere il posto di lavoro sarebbero archivisti e collaboratori vari, pagati per cercare informazioni e fonti. Il giornalista serio che sa fare il proprio mestiere, con l'AI tirerebbe fuori ottimi articoli.
Il tutto con buona pace dell'errore di battitura (che ci può stare), e con l'ignoranza grammaticale (che, invece, è cosa diversa e ben più grave). Non è questione di forma, ma di sostanza.
 
  • Like
Reactions: BrunoFLR and FLRprt
Parlando di statistica, neanche di informatica (che in buona sostanza è il trattamento con strumenti logico/matematici di una serie di informazioni memorizzate) uno dei fondamenti è GIGO. Garbage In, Garbage Out. Se i dati di partenza non sono buoni, quello che se ne ottiene non sarà migliore.
L'informatica in uso fino a poco tempo fa, quella dei data base e programmi associati di gestione, utilizzava archivi più procedure di estrazione e trattamento/elaborazione dei dati di tipo rigido secondo regole logiche o matematiche. Al più potevo sfruttare librerie di funzioni predisegnate in maniera da ottenere da quei dati archiviati quei dati o informazioni che mi servivano (oppure potevo scrivermi io i programmi).
L'elettronica cosa centra in tutto questo? Nel fatto che per operazioni ripetitive fa prima e meglio di un essere umano con carta e penna. E' più veloce e non sbaglia i calcoli. Stop. In contabilità siamo passati dalla partita doppia con la prima nota, il libro giornale e i conti, a mano con carta penna e al più calcolatrice Summa Prima (quella a manovella della Olivetti) -rischio di riportare importi errati, di dimenticarsi una trascrizione, di registrare sul conto sbagliato, di sbagliare una somma eccetra- alle prime macchine contabili elettromeccaniche come le Olivetti Audit (prima macchina elettromeccanica alfanumerica del 1956) a quelle elettroniche dedicate e poi agli elaboratori con i programmi di contabilità senza più necessità di macchine dedicate che sapevano fare solo e soltanto una cosa, mentre con l'elaboratore potevo farci la contabilità, le paghe e contributi ...
E poi siamo arrivati all'intelligenza artificiale. Semplificando all'estremo, con l'intelligenza artificiale si è in buona sostanza automatizzata la fase della raccolta dati e della scrittura di programmi di trattamenti di quei dati. L'uomo non seleziona più i dati, da in pasto testi o dati grezzi e che si arrangi la macchina ad estrarre dati e dedurre schemi che li colleghino (e qui finiamo nell'ambito dei LLM Large Language Model).

Quando si parla di addestramento della intelligenza artificiale si intende il raccogliere una massa enorme di dati che serviranno poi per l'elaborazione. E già qui si va a sbatttere sul GIGO: se la qualità dei dati è scarsa vado poco lontano. Sempre semplificando, nei sistemi informatici "old style" i dati in input venivano scelti e supervisionati da esseri umani; ora l'AI è addestrata anche e soprattutto con sistemi automatizzati che fanno anche pesca a strascico delle mail -vero, signor Google?- o con testi di preview non validati o peggio con siti complottisti le probabilità di incappare in dati di qualità non eccelsa esplode. Quando si fa il passo ai sistemi di estrazione ed elaborazioni, siamo passato da sistemi logici rigidi (IF a = b THEN x ELSE y) a sistemi probabilistici (nel testo se ad A segue B allora PROBABILMENTE a B segue C). Ma tutto dipende da chi ha scritto il programma ... e da che regole applica nell'analisi della enorma massa di dati raccolta per ottenere dei modelli: il diavolo è nei dettagli, nel caso nella percentuale applicata al PROBABILMENTE di cui sopra. Il gioco si complica ancora di più se il valore del parametro del PROBABILMENTE è affidato alla macchina stessa sulla base delle analisi dei dati (eccoci con i LLM).
Di nuovo, a dati di qualità bassa seguiranno risultati di qualità al pari, se tutto va bene. E quando anche i dati ci sono e sono validi tutto dipende dal cosiddetto prompt: l'interrogazione al modello per richiedere l'elaborazione dei dati. In breve, se la domanda non è chiara od è in sé suggestiva la risposta sarà poco chiara o seguirà il suggerimento dato col rischio di andare dietro all'errore se il suggerimento è errato. Di nuovo, GIGO. E per completare la frittata, purtruppo i sistemi sono programmati in modo da dare una qualche risposta, non nel rispondere "non lo so" o chiedere precisazioni quando non hanno dati sufficienti per elaborare una risposta: ecco le cosiddette allucinazioni. Ho provato a chiedere all'AI di Meta "chi è xxx yyy", dandogli il mio nome e cognome; non sono una celebrità, ma so bene quali mie tracce sono presenti nella Rete e di avere degli omonimi. La risposta è stata -ignorando del tutto tali tracce ed omonimi- che sarei un passato sindaco di Palermo: peccato che nel periodo indicato nella risposta il sindaco di Palermo era tutt'altra persona, e che a domanda successiva (ti sbagli, dove hai trovato quei dati?) la macchina ha detto che erano dati che aveva. Quando poi gli ho chiesto di elencare i sindaci di Palermo dal 1945 ad oggi la macchina ha risposto con l'elenco giusto, per poi scusarsi quando gli ho fatto notare che questa risposta era in conflitto con la prima. E stiamo parlando di dati storici inconfutabili.

Tutto 'sto pippone a che pro? L'AI se lavora su dati certi, aggiornati ed affidabili può essere utilissima. Nel forum c'è che può testimoniare che in ambiti come quello della fluidodinamica o nell'elaborazione delle immagini riesca ad ottenere risultati inimmaginabili pochissimo tempo fa. Nei telefonini di gamma medio-alta il comparto foto-video ormai si appoggia a strumenti dedicati di intelligenza artificiale col risultato di non sbagliare una ripresa in controluce o in notturno (infatti si parla di fotografia computazionale). Ma sulle parole no. Basta leggere dei ricorsi depositati da avvocati con precedenti o norme di legge o sentenze inventate oppure con conclusioni sballate. Chi è in ambito universitario spesso passa tesi e tesine a programmi che valutano quanto lo scritto sia farina del sacco del -supposto- autore: non c'è nulla di male ad ottenere una bibliografia da ChatGPT, basta solo che i testi indicati esistano davvero e siano di quell'autore -cosa non sempre vera-. Una verifica dei risultati andrebbe fatta, insomma. Non parliamo poi delle immagini o filmati alterati spesso non certo a fin di bene.
Anche qui sul forum compaiono post che puzzano di AI lontano miglia: per onestà intellettuale se gli autori lo dichiarassero sarebbe una buona cosa. Ma in campo giornalistico il problema è serio. IL Post ha opportunamente ricordato nella sua newsletter Charlie, parlando a proposito della libertà di espressione, della diffamazione, della diffusione di notizie false a mezzo stampa (o internet), questo passo che copioincollo
E qui c'entra anche la seconda cosa: ed è che un fattore rilevantissimo dei contenuti potenzialmente o realmente diffamanti pubblicati dai giornali italiani, o di quelli falsi (le due cose sono distinte, come abbiamo detto, ma con estese sovrapposizioni), è quella che si chiama "negligenza". Che è un limite peculiare della cultura giornalistica nazionale, rispetto agli altri paesi (compresi gli Stati Uniti che Malavenda cita a esempio nel suo articolo, e che la negligenza la contemplano e perseguono): sono negligenza la trascuratezza nel pubblicare, la limitatezza delle verifiche, la scarsa prudenza, le scelte impulsive per ottenere attenzioni e click. C'è una frequente "irresponsabilità" nel lavoro giornalistico italiano, che deriva dalla sua storia e dalla scarsa sedimentazione di rigori presenti in altri paesi.>

Quanto ho evidenziato in grassetto penso sia applicabile anche a noi che postiamo sul forum.

C'è poi chi ha preso una strada radicale: dal sito del Corriere della Sera - Tecnologia di oggi:
In Cina, dal 25 ottobre 2025, chiunque voglia parlare di temi «seri» sui social, come diritto, salute, finanza e istruzione, dovrà dimostrare di avere una qualifica professionale o un titolo di studio riconosciuto nel settore di cui si occupa. In caso contrario, si rischiano multe fino a 12 mila euro, sospensione o chiusura dell’account. La misura, annunciata dalla Cyberspace Administration of China (CAC), ha l'obiettivo dichiarato di combattere la disinformazione, tutelare i cittadini da consigli potenzialmente pericolosi ed alzare il livello di credibilità nei contenuti online.
Qui si entra in altri ambiti di libertà.
 
Ultima modifica:
Parti da preconcetti, e non analizzi la questione.
Anzitutto: a me interessa che l'articolo riporti informazioni utili e veritiere. E questo può accadere/non accadere SIA con l'AI, SIA con l'omino che lo scrive.
In secondo luogo, l'AI per scrivere un "articolo" deve necessariamente essere interpellata da un umano, il quale deve conoscere sia il meccanismo di funzionamento dell'AI, sia la materia per la quale chiede l'aiuto, andare a verificare fonti e contenuti, e poi aggiustare il tutto.
In terza battuta, l'AI è un validissimo aiuto alla persona, ma non può sostituirla in toto.
In ultima istanza, nel caso, più che il giornalista, quelli che andrebbero a perdere il posto di lavoro sarebbero archivisti e collaboratori vari, pagati per cercare informazioni e fonti. Il giornalista serio che sa fare il proprio mestiere, con l'AI tirerebbe fuori ottimi articoli.
Il tutto con buona pace dell'errore di battitura (che ci può stare), e con l'ignoranza grammaticale (che, invece, è cosa diversa e ben più grave). Non è questione di forma, ma di sostanza.
In questo caso bisogna aggiungere due ulteriori fattori:

5. Quello riportato NON è un articolo ma un comunicato stampa di ANA stessa, pubblicato sul sito ufficiale.

6. Non c'è alcun errore: il problema sono gli AOG ("aerei a terra", si parla esplicitamente di 787), non gli AOC! Non c'era nessuna lettera sbagliata!!!

Grazie anche a @FLRprt per l'interessante saggio, ma tutta questa discussione è nata dalla confutazione di un NON-errore. Buffo, non trovate?
 
  • Like
Reactions: FLRprt and Dancrane
Mmmh no.

Ci riprovo: ANA sta chiudendo Air Japan perchè, in caso di situazione AOG (Aircraft On Ground, aereo rotto nzomma) avere una flotta divisa tra due AOC (Air Operators Certificate) non permette di fare swaps.

Per fare un esempio, a un 787 di ANA Mainline parte un Trent 1000 (cosa che succede, diciamocelo). Serve un rimpiazzo. Se ANA non ha aerei in standby ma Air Japan ne ha due, lo scambio non si può fare perchè sono sotto due AOC diversi. O meglio, si può fare ma ANA deve dire all’ENAC giapponese “quel 787 di Air Japan là lo metto in leasing ad ANA”, e non è qualcosa che fai in due ore.

In verità la interoperabilità tra AOC diversi non è così anomala e difficile da attuare. Ryanair ad esempio da anni ha interoperabilità tra Ryanair DAC e Malta Air e recentemente è stata aggiunta Buzz. É solo una questione di procedure dí interfacciamento tra le varie CAA. Nel caso di ANA la CAA è pure una sola.