@13900
quindi al momento l'ipotesi plausibile è che sia saltata una server farm e che il back-up non si sia avviato in tempo debilto.
se puoi: FlyBA e JFE viaggiano separati immagino visto che il secondo è stato implementato per sopperire alle cadute del primo, giusto? ma Amadeus per caso ha una sua ridondanza nei suoi server in germania di FlyBA/JFE da attivare eventualmente? [ps: il fatto che BA si sia customizzato Altéa a suoi piacimento per poi utilizzare la "versione base" per il back-up a me ha fatto un pelo ridere]
Condivido pienamente il tuo punto di vista e credimi, non siete gli unici ad aver creduto nella chimera dell'outsourcing facile, vantaggioso e a prova di errore...
Grazie mille, Fabrizio, per le informazioni.
Sul perchè BA abbia creato FLY si possono scrivere pagine, avendoci lavorato su per 15 mesi potrei dirne diverse, da una parte e dall'altra.
Comunque, FLY e JFE sono sì separati, ma alla fine della fiera parlano tutti con CM/FM. Infatti ieri JFE era usata, seppur manualmente.
quindi alla fine Fly è una vera e propria "amanazione" di Altéa e lavora come "front line"...ma dietro c'è CM! Mi ricordo quando Airone prese SABRE e mentre tu smanettavi sulle "finestre", dietro c'era il "sistema" che processava gli input a stringhe...
Bravo. FLY è un front-end.
@aless: prego![]()
@13900 purtroppo siete stati in buona compagnia, la national grid ha tirato giu una bella dose di datacentre in tutta Londra.
per farmi degli amici ra i "rinnovabili" vi racconti che nei giorni scorsi ci siamo trovati con il 24% di produzione da energia solare con il bel risultato che una diminuzione dell'irraggiamento sul Galles improvvisa ha causato un deficit di produzione non colmabile in altro modo, non essendoci produzione idroelettrica in UK non esiste nulla in grado di reagire a questa mancanza. Pertanto hanno disattivato le utenze maggiormente assorbenti potenza reattiva quali i DC. Tralaltro si crede che i DC abbiano gruppi UPS e motogeneratori in grado di subentrare, ma anche questo e' falso, in quanto un Dtacentre assorbe moltissima potenza reattiva con un CosFi elevato che il gruppo UPS non sempre riesce a compensare nel momento in cui switch dalla rete alla produzione autonoma. Risultato si aprono tutti gli interruttori e il DC va giu di botto. Tenendo presente la pessima progettazione dei DC in UK sommata alle grandi dimensioni che questi hanno qui (andate a vedere dalle parti di East India nei Docklands che edifici ci sono) portano a dei disastri tremendi.
La storia dell'alimentazione multipla in UK e' una bufala tremenda, la national grid e' una ed unica, magari puoi avere più linee che arrivano da cabine diverse, ma più in la di tanto non vai, soprattutto se decidono di tirarti giu ti tagliano tute le alimentazioni. L'unico luogo alimentato al mondo da due reti parallele ed indipendenti e' una ristretta fascia della periferia di Milano praticamente la zona tra il piano Beruto ed il piano De Finetti dove convivono le due reti AEM ed ExEnel che sono alimentate da due reti di primo livello separate con produzioni separate etc.. etc... Solo che una legge in Italia impedisce di fatto la doppia alimentazione se non per utenze speciali come gli ospedali o gli aeroporti. Peccato che nessun aeroporto abbia questa doppia alimentazione in quanto non disponibile presso nessuno di essi. Solo a MXP c'e' auto produzione con Backup proveniente da Turbigo, unico caso di pseudo ridondanza in Italia.
Il problema e' che in queste vicende finisce sempre per lavorare come un somaro chi non c'entra nulla con colpe distribuite a destra e manca e mai che si faccia qualcosa per fare si che non possa capitare più.
Con il piccolo problema che l'ousourcer esiste proprio per fare da capro espiatorio. Un CIO con gli attributi al posto suo, se supportato dagli altri manager che sanno il fatto loro non si sogna di scaricare il barile all'esterno. Ma dato che nel mondo dell'IT lo sport più popolare si chiama incXXXXXXrello ne deriva che e' sempre necessario trovare qualcuno o qualcosa a cui dare la colpa. Purtroppo con i fornitori di corrente in tutto il mondo non si può' parlare di SLA, anzi, loro si riservano il diritto di tagliarti la fornitura a loro piacimento. L'unica leva che tu possa avare sta nel fatto che quando ti tagliano la corrente tu non paghi ... fine! ... poco imposta che cosa alimentavi con quella fornitura. Tralaltro sto sport cosi popolare sta facendo si che anche gli IT si proteggano fornendoti un servizio esattamente come fanno quelli della corrente e del gas: paghi quel che ti offro, ed io, fornitore dei sevizi IT, decido cosa fare per massimizzare il MIO business non il tuo di cliente. Purtroppo nei prossimi anni ne vedremo delle belle.Alla fine mi sembra di capire che su queste pagine l'outsourcer stia facendo da capro espiatorio quando in realtà il problema sia in capo al fornitore di energia.
Scusate ma c'è un buona quota parte di "populismo aziendale" a credere che gli outsourcer siano by definition meno capaci di gestire i servizi esternalizzati di quanto fosse l'azienda al suo interno. In fin dei conti è il management dell'azienda che pretende stiano in piedi business case impossibili avendo allo stesso tempo una buona superficialità nel concordare i KPI contrattuali coll'outsourcer.
In altre parole: un outsourcer incapace sta sul mercato molto poco se il management aziendale è in grado di governare il servizio con gli appropriati strumenti a sua disposizione (SLA's e relative penali, innanzitutto).
Ma stiamo scherzando? Un data center decente deve avere tutti dispositivi con doppia alimentazione, e anche generatori autogeni per subentrare in caso di sospensione della fornitura di elettricita'.
Se l'IT di BA avesse fatto appena decentemente il proprio lavoro, potevano togliergli la corrente e gli utenti non avrebbero dovuto neanche accorgersene.
Ma casso, lo sapete che se andate in Mediaworls o all'Unieuro o su Amazon con 50 euro comprate un gruppo di continuita' che vi mette al sicuro se va via la corrente? Se ci attaccare il PC e il monitor l'autonomia si riduce, ma se ci collegate solo il router modem e il NAS (chi ce l'hai), con i dispositivi autoalimenteti, il laptop, i telefonini e il tabled continuate a lavorare come se nulla fosse. Anzi, consiglio vivamente di procurarvi un UPS, e' utilissimo e costa poco, anche se non gestite una compagnia aerea a cui sono affidate milioni di vite.
La continuita' elettrica e' l'abc dell'informatica, con ampia letteratura e soluzioni. E buona parte del tempo di lavoro per mettere su un data center dovrebbe essere dedicato a questo, anche in settori meno sensibili dell'aviazione.
Qui hanno fatto una cacata grossa, sia BA che l'outsourcer. La societa' elettrica viene dopo nella scala dei colpevoli, perche' i blackout succedono e sono normali.
Alla fine mi sembra di capire che su queste pagine l'outsourcer stia facendo da capro espiatorio quando in realtà il problema sia in capo al fornitore di energia.
Scusate ma c'è un buona quota parte di "populismo aziendale" a credere che gli outsourcer siano by definition meno capaci di gestire i servizi esternalizzati di quanto fosse l'azienda al suo interno. In fin dei conti è il management dell'azienda che pretende stiano in piedi business case impossibili avendo allo stesso tempo una buona superficialità nel concordare i KPI contrattuali coll'outsourcer.
In altre parole: un outsourcer incapace sta sul mercato molto poco se il management aziendale è in grado di governare il servizio con gli appropriati strumenti a sua disposizione (SLA's e relative penali, innanzitutto).