Di Usenet se n'è spesso parlato qui sul blog, detto in parole povere si tratta di una rete decentrata, inventata per diffondere messaggi di testo e files.
Usenet possiede un’architettura propria.
Consiste infatti di numerosi newsgroup (pochissimi gratuiti), dove gli utenti hanno la possibilità di leggere e scrivere messaggi.
Se una persona desidera inviare un messaggio ad un’altra persona, questo viene dirottato attraverso tre Server, che lo rendono quindi accessibile a tutti.
Contrariamente a ciò che si crede, Usenet non è una vera e propria rete in senso stretto nè una casella di posta elettronica.
Usenet è un sistema indipendente, in grado di utilizzare diversi protocolli.
Su Usenet è possibile contattare direttamente delle persone, per discutere vari argomenti.
Usenet può essere particolarmente interessante per persone che desiderano discutere degli argomenti molto specifici (ma ormai per questo esistono da decenni i forum).
E' possibile diffondere files nei vari newsgroup di Usenet, ad esempio, musica, immagini e qualsiasi genere di software e giochi.
Per leggere i newsgroup, molto usato era: Free Agent
L'architettura dei newsgroup è questa (Google acquisì per il Web l'archiviazione dei vecchi newsgroup di Usenet): Groups Google
Altri archivi di links: Eternal September Hierarchies
LA GERARCHIA DI USENET
I messaggi e i files su Usenet possono essere suddivisi in categorie, denominate a loro volta newsgroup (tipo i topic di un forum).
Questi newsgroup possono essere di tipo "testi" o a "file".
Se sono orientati a file, sono binari e possiedono dei nomi, quali ad esempio alt.binaries.games.
Sopra i newsgroup è possibile suddividere Usenet in gerarchie.
Alcune di queste gerarchie vengono più o meno controllate e soddisfano determinate direttive.
Cioè comp.*, talk.*, soc.*, sci.*, humanities.*, misc.*, news.* e rec.*.
La gerarchia alt.*, conosciuta per i suoi newsgroup alt.binaries.*, non viene invece controllata.
La maggior parte dei newsgroup presenta il formato seguente: hierarchie.subhierarchie.thema, cioè, ad esempio, alt.binaries.games per un newsgroup di giochi orientato a file, permette appunto di scaricare giochi e quant'altro.
Inutile dire che ogni gerarchia (alt, biz, comp, etc) contiene centinaia di newsgroup (e quindi di link diversi. In rec potrò trovare da siti inerenti libri ad argomenti sportivi).
Tutti i newsgroup nascono nella gerarchia "alt" per poi essere smistati in una delle altre gerarchie.
Alcuni newsgroups rimangono sempre in alt.
E' il caso dei newsgroups meno "nobili", non essendoci lì come detto alcuna censura.
La gerarchia di sopra è l'originale, ovviamente con il passare dei decenni si è notevolmente espansa (la "It" classifica i newsgroup italiani).
Un esempio di contenuti Usenet, immessi sul Web: http://www.asstr.org/
Attraverso dei meccanismi di replica, i server si scambiano gli articoli(post) dei loro abbonati e fanno in modo che, dove non esistono, vengano anche costruite le stesse gerarchie tematiche e gli stessi thread che li contengono.
Questo fa sì che grossomodo tutti i server abbiano quasi simultaneamente gli stessi contenuti e che le persone possano comunicare fra loro oltre il confine del server al quale sono abbonati, anche con persone di tutto il Mondo.
La pubblicazione di messaggi verso i server Usenet è basata sul protocollo NNTP, e richiede da parte degli utenti l'uso sul proprio computer, sia per la pubblicazione che per la lettura, di applicativi specifici che lo supportino, detti News Client.
La gestione degli articoli sui server viene corrispondentemente gestita da applicazioni dette News Server.
Esistono nel Mondo moltissimi newsgroup, ognuno dedicato a un argomento particolare.
Non esiste un numero "ufficiale" di newsgroup, dal momento che alcune gerarchie sono private e non vengono perciò propagate. ISC (Internet Systems Consortium) archivia tutti gli articoli di controllo per la creazione e la cancellazione dei newsgroup e mantiene aggiornato un file chiamato "active", che i gestori dei server news prendono come base per decidere quali newsgroup creare sulle proprie macchine. Al 10 giugno 2006 il file active reperibile presso ISC, contava 45 298 newsgroup..
NETIQUETTE
Essendo una rete decentralizzata, per usufruire di un servizio di qualità accettabile è necessario conformarsi a un comportamento di base che sia etico verso tutti gli utilizzatori.
Le regole di questo comportamento (nulla di diverso da quanto suggerisce il buon senso) sono state dapprima tramandate oralmente (in fondo l'anima di Usenet è la ripetizione) e poi raccolte in un documento chiamato netiquette.
La netiquette proibisce l'utilizzo di linguaggio irrispettoso in conversazioni pubbliche, la spedizione di messaggi che possano causare la perdita di lavoro da parte di persone o danni finanziari, la spedizione di "catene di S. Antonio", l'invio di messaggi di massa senza selezionare con cura i destinatari 8cioè Spam), o qualunque altro atteggiamento che possa provocare la congestione della rete o interferire nelle attività degli altri utenti.
Un'altra delle regole principali per l'utilizzo dei newsgroup è il divieto di utilizzare questi mezzi per scopi commerciali: il concetto è che su Internet le aziende sono presenti, ma data la facilità di propagazione delle informazioni, deve essere l'utente a ricercare l'azienda o il servizio e non la ditta a tempestare l'utente con e-mail di propaganda per invitarlo all'acquisto dei propri prodotti.
Non seguendo queste regole si può essere malvisti all'interno dei gruppi di discussione o esserne addirittura banditi.
La maggior parte dei gruppi Usenet è aperta in scrittura a chiunque e questo genera grandissime moli di traffico, da evitare assolutamente i messaggi off-topic (messaggi non aderenti all'argomento fissato per il gruppo); ovviamente a un messaggio pubblico è possibile rispondere in maniera pubblica mediante il gruppo di discussione stesso, oppure mediante posta elettronica in privato.
La scelta di quale modalità utilizzare deve essere considerata di volta in volta secondo la natura della risposta, al riguardo si fa appello al buon gusto di ognuno. Anche il cosiddetto "quoting" (copia di parti del messaggio originale nelle risposte) deve essere utilizzato con parsimonia scegliendo le parti realmente significative e a cui si vuole dare una risposta; una copia integrale del messaggio originale, oltre a non invogliare alla lettura (rileggere più volte le stesse cose è sicuramente noioso) provoca immensi sprechi di spazio disco e di banda di trasferimento dati.
Molte volte è possibile produrre articoli che contengano informazioni interessanti per più gruppi di utenti, esiste quindi la possibilità di pubblicare lo stesso messaggio contemporaneamente su più newsgroup; questa operazione, chiamata crosspost, viene gestita dal newsreader, e, oltre a rendere automatico l'invio di un messaggio a gruppi multipli, facilita anche la lettura, in quanto permette al newsreader, in seguito alla lettura di un messaggio, di marcarlo come "read" (letto) in tutti i gruppi in cui è stato pubblicato.
Il followup specifica dove debbano essere inviate le risposte pubbliche a un messaggio, per esempio, se il messaggio viene inviato a più di un gruppo è possibile richiedere che le risposte date su altri gruppi vengano automaticamente pubblicate anche in uno che si è abituati a leggere con maggiore frequenza.
In alcuni gruppi esiste un maggiore controllo delle informazioni pubblicate: i messaggi immessi in questi gruppi, detti moderati, non appaiono se non vengono prima approvati dai rispettivi moderatori.
Le regole con cui viene gestita la moderazione dei gruppi dipende dal gruppo stesso.
TRAFFICO
Nel corso del tempo, la quantità di traffico Usenet è aumentato.
A partire dal 2010 il numero di tutti i messaggi di testo realizzati era di circa 1.800 nuovi messaggi ogni ora, con una media di 25.000 messaggi al giorno.
Molto di questo aumento del traffico non riflette un aumento di utenti discreti o discussioni newsgroup, ma la combinazione di massiccia spamming automatizzato ed un aumento dell'uso di .binaries newsgroup contenenti files binari di grosse dimensioni.
ALTRI ARTICOLI
Migliori Link Usenet
Post Celebri Usenet: Macintosh, Linux, eBay, etc
venerdì 30 settembre 2016
mercoledì 28 settembre 2016
Come Rilevare ed Eliminare HummingBad (Android)
Il malware HummingBad per Android circa 1 mese e mezzo fa vantava già 85 milioni di dispositivi infettati.
Dietro ci sarebbero criminali cinesi che intascherebbero, grazie ai banner pubblicitari, circa 300mila dollari al mese.
Il malware ha colpito utenti cinesi, filippini e in generale asiatici, oltre che USA ed alcuni paesi del Sud America.
Esso non si limita a generare una quantità spropositata di banner pubblicitari estremamente invadenti, che sono la fonte primaria di reddito del suo team di sviluppo, ma include nel suo codice tutti i set di istruzioni necessari a tentare di guadagnare i privilegi di root sui dispositivi più vari e provenienti da diversi produttori.
Il malware prova a farsi scaricare tramite messaggi popup allarmistici sul browser di turno, dichiarando che il telefono è infetto e va ripulito cliccando sul banner proposto.
Anche se il download dovesse andare a buon fine, per l’infezione vera e propria l’utente deve prima avere dato il suo esplicito consenso all’installazione da fonti potenzialmente insicure.
L’opzione è ben nascosta tra i menù di Android e può essere selezionata solo manualmente.
Tenere questa opzione disattivata, installare app originali dal Play Store di Google, e non fidarsi di presunti antivirus sono le cose migliori da fare per rimanere alla larga da HummingBad.
Se si è stati infettati, la cosa migliore da fare è scaricare qualche applicazione antivirus mobile come Avast, AVG o Zone Alarm.
Se questi programmi antivirus scovano HummingBad sul vostro smartphone, c’è un solo modo per essere sicuri di eliminare il Virus: resettare il telefono e riportarlo alle “condizioni di fabbrica”.
Dopo aver fatto un backup dei vostri files importanti, ovviamente.
Dietro ci sarebbero criminali cinesi che intascherebbero, grazie ai banner pubblicitari, circa 300mila dollari al mese.
Il malware ha colpito utenti cinesi, filippini e in generale asiatici, oltre che USA ed alcuni paesi del Sud America.
Esso non si limita a generare una quantità spropositata di banner pubblicitari estremamente invadenti, che sono la fonte primaria di reddito del suo team di sviluppo, ma include nel suo codice tutti i set di istruzioni necessari a tentare di guadagnare i privilegi di root sui dispositivi più vari e provenienti da diversi produttori.
Il malware prova a farsi scaricare tramite messaggi popup allarmistici sul browser di turno, dichiarando che il telefono è infetto e va ripulito cliccando sul banner proposto.
Anche se il download dovesse andare a buon fine, per l’infezione vera e propria l’utente deve prima avere dato il suo esplicito consenso all’installazione da fonti potenzialmente insicure.
L’opzione è ben nascosta tra i menù di Android e può essere selezionata solo manualmente.
Tenere questa opzione disattivata, installare app originali dal Play Store di Google, e non fidarsi di presunti antivirus sono le cose migliori da fare per rimanere alla larga da HummingBad.
Se si è stati infettati, la cosa migliore da fare è scaricare qualche applicazione antivirus mobile come Avast, AVG o Zone Alarm.
Se questi programmi antivirus scovano HummingBad sul vostro smartphone, c’è un solo modo per essere sicuri di eliminare il Virus: resettare il telefono e riportarlo alle “condizioni di fabbrica”.
Dopo aver fatto un backup dei vostri files importanti, ovviamente.
lunedì 26 settembre 2016
Come Sapere Se Il Computer è a 32 o 64 bit? (Win XP, Vista, 7, 8 e 10)
Windows è disponibile in due versioni “32 bit” o “64 bit”.
Sapere se il proprio sistema operativo è a 32 o 64 è molto importante perchè i software da installare sono appunto personalizzati (a 32 o 64).
Ma qual è la differenza?
32 bit e 64 bit fanno riferimento al modo in cui il processore del computer (CPU), gestisce le informazioni.
La versione a 64 bit di Windows gestisce grandi quantità di RAM in modo più efficace di un sistema a 32 bit.
La maggior parte del guadagno di prestazioni nei computer che eseguono una versione a 64 bit di Windows deriva da questa memoria aggiunta, combinata con un potente processore a 64 bit in grado di utilizzare tale memoria extra.
Tuttavia per la maggior parte delle persone, che mantengono solo un paio di programmi in esecuzione allo stesso tempo, 4 o 8 GB di memoria non offrono alcun beneficio tangibile su un computer con 2 GB di memoria e una versione a 32 bit di Windows.
PROMPT DEI COMANDI (DOS)
Potrete verificare facilmente la versione del vostro sistema operativo tramite dos.
Quindi Start, Esegui, scrivere cmd.
Aperto il dos, scrivere systeminfo.
System Tipe c'indicherà la versione (x32 o x64).
WINDOWS XP
Su questi sistemi operativi il 32 bit è di default, insomma non verrà indicato se a 32 bit, altrimenti leggerete x64.
Per scoprirlo cliccare su Start accedere al Pannello di controllo e infine andare su Sistema.
Nella finestra si può leggere chiaramente x64version.
WINDOWS VISTA/ WINDOWS 7
Basta cliccare su Start, poi Pannello di controllo, Sistema e sicurezza e infine Sistema.
Nella finestra si può leggere chiaramente il tipo di sistema, se 32 bit o 64 bit.
WINDOWS 8
Clic destro nell'angolo inferiore sinistro dello schermo, poi fare clic su Sistema dal menu.
Nella finestra Sistema si può leggere il tipo di sistema, se 32 bit oppure 64 bit.
WINDOWS 10
Andare su Start, Impostazioni, Sistema e poi su Information.
Nel pannello di destra, verifica il Tipo Sistema.
Sapere se il proprio sistema operativo è a 32 o 64 è molto importante perchè i software da installare sono appunto personalizzati (a 32 o 64).
Ma qual è la differenza?
32 bit e 64 bit fanno riferimento al modo in cui il processore del computer (CPU), gestisce le informazioni.
La versione a 64 bit di Windows gestisce grandi quantità di RAM in modo più efficace di un sistema a 32 bit.
La maggior parte del guadagno di prestazioni nei computer che eseguono una versione a 64 bit di Windows deriva da questa memoria aggiunta, combinata con un potente processore a 64 bit in grado di utilizzare tale memoria extra.
Tuttavia per la maggior parte delle persone, che mantengono solo un paio di programmi in esecuzione allo stesso tempo, 4 o 8 GB di memoria non offrono alcun beneficio tangibile su un computer con 2 GB di memoria e una versione a 32 bit di Windows.
PROMPT DEI COMANDI (DOS)
Potrete verificare facilmente la versione del vostro sistema operativo tramite dos.
Quindi Start, Esegui, scrivere cmd.
Aperto il dos, scrivere systeminfo.
System Tipe c'indicherà la versione (x32 o x64).
WINDOWS XP
Su questi sistemi operativi il 32 bit è di default, insomma non verrà indicato se a 32 bit, altrimenti leggerete x64.
Per scoprirlo cliccare su Start accedere al Pannello di controllo e infine andare su Sistema.
Nella finestra si può leggere chiaramente x64version.
WINDOWS VISTA/ WINDOWS 7
Basta cliccare su Start, poi Pannello di controllo, Sistema e sicurezza e infine Sistema.
Nella finestra si può leggere chiaramente il tipo di sistema, se 32 bit o 64 bit.
WINDOWS 8
Clic destro nell'angolo inferiore sinistro dello schermo, poi fare clic su Sistema dal menu.
Nella finestra Sistema si può leggere il tipo di sistema, se 32 bit oppure 64 bit.
WINDOWS 10
Andare su Start, Impostazioni, Sistema e poi su Information.
Nel pannello di destra, verifica il Tipo Sistema.
domenica 25 settembre 2016
Tutti I Tipi Di Lethal Autonomous Weapons Systems: Robot, Droni, Missili Autonomi
La DARPA americana (Defense Advanced Research Projects Agency) ha diversi progetti di sviluppo di Lethal Autonomous Weapons Systems (LAWS), ovvero di sistemi d’arma letali e autonomi.
Il primo è il Fast Lightweight Autonomy (FLA), per lo sviluppo di minuscoli Droni (dimensioni di un insetto) in grado di viaggiare a gran velocità negli ambienti urbani per dare la caccia, riconoscere e colpire obiettivi (anche uomini).
Il secondo programma è il Collaborative Operations In Denied Environment (CODE), per lo sviluppo di interi sistemi di aerei capaci di operare in territorio nemico per cercare, riconoscere e colpire con ogni tipo di arma (anche in assenza di totale comunicazione con i comandi militari umani).
In pratica, un’aviazione complementare composta da un intero battaglione di Robot autonomi.
I paesi che come gli Stati Uniti, la Gran Bretagna o Israele stanno sviluppando simili sistemi d’arma, sostengono che saranno in grado di imporre comportamenti legali anche ai Robot guerrieri.
I Robot sui quali il Pentagono spende miliardi di dollari saranno chiamati a sostituire col tempo i soldati sul campo.
Il fattore umano si è infatti rivelato sempre più complesso e costoso da gestire: costi umani, psichiatrici e finanziari insostenibili.
Il tutto sarebbe ridotto se sul campo venissero spedite macchine che fanno più o meno tutte da sole.
Si avete capito bene.
I Robot avrebbero infatti la licenza di uccidere, anche persone, senza l’intervento di nessuno. Naturalmente devono essere programmati, ma se il programma fosse particolarmente “spietato”, questi marchingegni potrebbero togliere la vita ad un numero imprecisato di esseri umani.
Alcuni li considerano gli eredi dei Droni militari, ma a differenza di loro i Robot killer non sono comandati a distanza.
Eppure non tutti concordano sulla loro pericolosità: “Mi auguro che i killer Robot possano ridurre significativamente le vittime di incidenti durante le operazioni militari, curare in maniera tempestiva i feriti e realizzare interventi pericolosi che i soldati non potrebbero portare avanti” ha dichiarato a questo proposito alla BBC Ronald Arkin, professore presso il Georgia Institute Of Technology.
Molti paesi tipo Germania, si oppongono a questi sistemi, in quanto i Robot non potrebbero mai avere la capacità umana di percepire in modo preciso e senza ambiguità ciò che accade nel luogo dove operano, di riconoscere e manipolare oggetti, di riconoscere e in parte comprendere ogni linguaggio scritto e parlato, di muoversi in qualsiasi ambiente.
In poche parole possono essere complementari all’uomo, ma non possono sostituirli del tutto.
Proprio questo il nodo cruciale delle battaglie anti robot killer, portate avanti da diverse organizzazioni tra le quali l’Ong ‘Human Rights Watch’ e i rappresentanti della campagna ‘Stop the Killer Robots’, una coalizione internazionale costituita nell’aprile 2013 a sua volta a partire da altre associazioni che avevano come obiettivo la messa al bando delle armi completamente autonome.
Del resto, come si sa, i Robot potrebbero essere anche pericolosi.
Ovviamente parliamo di Robot in senso stretto ma sostanzialmente il concetto è quello: infatti qualche mese fa un team di ricercatori di Google ha affermato di aver realizzato un sorta di telecomando (Tasto Rosso) in grado di disattivare/spegnere un'intelligenza artificiale nel caso diventasse pericolosa.
UNMANNED SYSTEM: UAS, UGV, UUV
Si parla in gergo di “Unmanned System”, per indicare sistemi d’arma che non richiedono la presenza in essi di esseri umani.
Tali sistemi sono guidati (teleguidati, radioguidati) a distanza da esseri umani, oppure nei progetti più evoluti sono dotati di una più o meno ampia autonomia decisionale e d’azione.
Invece per “Manned System” s'intende “sistema con operatore umano”.
"Unmanned Vehicle" ovvero veicoli balistici, missili, proiettili d’artiglieria, torpedini, mine, satelliti, sensori statici.
Cioè veicoli con una forma propria di propulsione, senza operatore umano, che possono agire
autonomamente o essere comandati a distanza, equipaggiati con carico letale o non letale.
Possono infatti portare anche sistemi di sorveglianza (videocamere, radar, sonar, microfoni, etc.) o armi letali (cannoni, mitragliatrici, missili, razzi etc.).
I SAR si dividono in tre grandi famiglie, a seconda dell’ambiente in cui operano: l’aria, la terra, l’acqua.
Abbiamo dunque SAR attrezzati per la guerra aerea (UAS – Unmanned Aircraft System), per la guerra terrestre (UGV – Unmanned Ground Vehicle) e per la guerra navale.
Questi ultimi si dividono a loro volta in due categorie: di superficie (USV – Unmanned Surface Vehicle) e sottomarini (UUV – Unmanned Undersea Vehicle).
I Robot volanti sono detti Droni.
Si possono citare: i Droni aerei Predator e Reaper (Stati Uniti), e quelli terrestri Guardium (Israele).
I prototipi di aerei da combattimento senza pilota X-47B (Stati Uniti) e Taranis (Regno Unito), capaci di cercare, identificare e (se autorizzati) distruggere i nemici.
Le sentinelle robotizzate Sgr-A1 (Corea del Sud) e Sentry Tech (Israele), con sensori per individuare gli obiettivi, e mitragliatrici pronte a far fuoco.
Cina e Russia hanno testato gli aerei senza pilota Dark Sword e Skat.
E i missili britannici Brimstone già distinguono tra tank e macchine e possono inseguire un bersaglio senza aver bisogno di supervisione umana.
SENTRY ROBOT (SGR-A1)
Dal 2010, la Corea del Nord ha schierato lungo la linea di confine dei Sentry Robot (SGR-A1), dal costo di 330.000 dollari cadauno, in grado di garantire il blocco degli accessi lungo tutta le linea di confine.
Si parla qui di Robot semi-automatici.
Infatti erano controllati a distanza da un operatore che possiede una serie di rilevatori (tra cui quello di calore) per identificare la presenza di possibili "intrusi" che tentino di avvicinarsi al confine nazionale.
L'operatore può guidarlo e gestirlo a distanza, ma nel caso in cui il Robot dovesse perdere il canale di comunicazione con il proprio "driver", scatterebbe un meccanismo di autogestione e il sistema agirebbe autonomamente, attuando delle azioni automatiche di reazione.
AUTOMATED KILL ZONES, GUARDIUM, SENTRY TECH, REXROBOT E PROTECTOR SV
Anche Israele, da qualche anno, ha creato lungo il confine con la striscia di Gaza, delle "Automated Kill Zones" in cui ha installato dei sistemi robotizzati di fuoco, indipendenti e in grado di fare fuoco nel momento un cui si dovesse rilevare la presenza di "elementi non identificati".
Queste macchine da combattimento automatiche, sono munite di ogni sorta di armamento: mitragliatori, cannoni di medio calibro, lanciagranate, missili anticarro e terra-aria, e persino un collegamento con un Drone per il controllo del campo di battaglia.
Inoltre, i sistemi possono contare su una protezione corazzata retrattile, in grado di proteggere l'intero congegno quando non è in funzione.
Qualche anno fa sempre nel medesimo territorio è stato creato Guardium, un veicolo blindato progettato da GNius, per pattugliare le frontiere con il Libano e Gaza: è un fuoristrada di piccole dimensioni, dotato di sistema di comando, controllo e navigazione completamente automatizzato. Sono utilizzati anche Bulldozer, questi invece controllati in remoto.
Sentry Tech invece sono Robot sentinella.
Rexrobot, veicolo a 6 ruote per il trasporto di 200 kg di materiale al seguito della fanteria è invece capace di ricevere ec eseguire comandi vocali.
Il motoscafo Protector SV, detto Death Shark, è equipaggiato con 4 telecamere ad altissima definizione (cattura dettagli a 10 miglia) che possono arrivare al 3D, sistema sonar e sensori elettroottici, mitragliatrice controllata in remoto via laser capace di fissare l’obiettivo anche in mare mosso.
Sono molti inoltre i modelli di Robot progettati per esplorare le aree minate e individuare gli ordigni. Poiché anche le mine evolvono, essendo per esempio costruite con materiali sintetici che sfuggono ai metal detector, l’apparato sensoriale dei Robot deve evolvere in misura analoga per individuale questi ordigni letali.
DRONI KILLER: X-47B
Concepiti come velivoli senza pilota, destinati a missioni di sorveglianza e ricognizione, attualmente vengono soprattutto utilizzati come aerei multiruolo ottimizzati soprattutto per operazioni di attacco aereo, grazie anche alle accresciute capacità di carico, che consente loro di trasportare un armamentario molto variegato.
I Droni "killer" sono conosciuti anche come LAR (Lethal Autonomous Robot), si tratta di sistemi d'arma robotizzati che possono colpire target ed obbiettivi autonomamente (escludendo l'operatore umano da ogni azione/responsabilità).
Ad esempio il Drone di nuova generazione X-47B, è programmato per un volo in piena autonomia, capace di selezionare i target senza supervisione umana.
I documenti ricostruiscono la procedura che permette di autorizzare l’uccisione di un sospetto.
Le operazioni sono lanciate in funzione di una kill list (lista di persone da uccidere) in cui ogni nome entra solo dopo un’esplicita autorizzazione del presidente degli USA (se si parla appunto di Droni americani).
Prima di tutto su ogni possibile obiettivo vengono raccolte numerose informazioni, sintetizzate poi in una scheda di circa 6,5 centimetri per 9.
Questa scheda deve salire “ai livelli gerarchici superiori” per essere convalidata.
Un documento indica che ci vogliono in media 58 giorni al presidente per firmare un ordine di esecuzione.
L’esercito poi ha 60 giorni per portare a termine la sua operazione.
Le autorità statunitensi falsano gran parte delle cifre disponibili mettendo nella categoria di "nemici" le vittime non identificate
In attesa della loro esecuzione, gli obiettivi sono inseriti in una watch list che riassume la situazione della loro sorveglianza.
Ogni obiettivo è identificato da un codice unico associato a diversi dati, ed è geolocalizzato grazie alla sim del suo cellulare.
L’inchiesta permette anche di accertare gli eccessi di queste operazioni mirate, in particolare sul numero e sulle identità delle vittime.
La mancanza di informazioni e di dati riguardanti molti paesi, come lo Yemen e la Somalia, non permette di avere un bilancio affidabile delle vittime degli attacchi dei Droni.
Per approfondire: Droni e Robot.
DRONI STEALTH DA COMBATTIMENTO: TARANIS
Si tratta di un velivolo invisibile senza pilota per missioni C4ISTAR per la sorveglianza, la raccolta di informazioni e la guerra elettronica in territorio nemico.
Venne presentato al pubblico nel 2010.
Il primo volo di Taranis si è svolto tra l’ottobre 2013 ed il marzo del 2014 in prove top secret.
Le ali di Taranis presentano un elevato angolo di freccia positiva con un'apertura che misura 33 metri di larghezza.
Molto importanti sono i sistemi di comunicazione criptati, l'integrazione tra il motore e la capacità furtiva del velivolo per eludere i rilevamenti Radar.
Taranis, nome del dio celtico del tuono, rientra nel progetto noto come Future Combat Air System (FCAS).
FCAS ha l'obiettivo di sviluppare un nuovo Drone da combattimento Stealth, con paesi membri che contribuiscono in parti uguali alla metà del bilancio del programma.
Il Drone ha dimostrato la sua capacità di rullare autonomamente verso la pista per il decollo, decollare e volare sino alla zona di destinazione, individuare un bersaglio.
Taranis è stato in grado di generare un piano di volo fino al bersaglio, individuarlo e ritornare alla base.
Il velivolo inoltre ha compiuto una valutazione simulata dei danni arrecati al target prima di eseguire un atterraggio.
Il tutto senza l’intervento umano.
La tecnologia Stealth fa da schermatura Anti-Radar, esse si basa sul principio di eliminare i riflessi Radar assorbendo le onde radio (RAM Coating) o deviandole (Modellazione della superficie).
La tecnologia di assorbimento delle onde radio avviene principalmente attraverso il RAM (Radio Absorbent Material): il meccanismo è più o meno segreto visto che ancora oggi a distanza di decadi sappiamo poco o nulla del sistema RAM del SR 71 (uno dei primi aerei Stealth costruiti dalla Lockheed) e ciò fa capire quanto questa tecnologia sia importante per gli anni a venire.
L’assorbimento avviene attraverso la conversione dell’energia delle onde radio in calore che viene dissipato sulla superficie dell’aereo.
Per aumentare l’assorbimento delle onde radio, la vernice utilizzata su questi velivoli Stealth ha una forma di tipo piramidale (permette alle onde elettromagnetiche di rimbalzare all’interno della struttura piramidale cosi da perdere energia sotto forma di calore e diminuire l’intensità di segnale).
Modellando la forma del velivolo (veicolo/nave) attraverso piani netti angolati permette di deviare le onde radio in direzioni diverse, diminuendo cosi il riflesso delle onde all’apparecchio di provenienza.
Anche nel campo navale la tecnologia Stealth è in fase di sviluppo.
Il problema principale in questo campo è la grandezza delle navi: un Radar riuscirà comunque ad individuare una nave nel proprio range di azione, ma in caso di uso di tecnologia Stealth la nave potrebbe essere scambiata per un piccolo mercantile o un’imbarcazione di media dimensioni piuttosto che ad un incrociatore di grandi dimensioni.
Ad ogni modo Radar con tecnologia Banda-L potrebbero rilevare velivoli Stealth ed un velivolo crea una firma infrarossi IR dovuta al calore emesso (quindi usare vernici Stealth non elimina la firma IR dal cielo).
Infine i vani di carico di bombe o missili non sono Stealth (una volta aperto il vano il velivolo è completamente visibile).
MISSILI TERRA-ARIA PATRIOT
Sono decenni che esistono armamenti missilistici in grado di prendere decisioni autonome, pur se con dei limiti specifici, tra di essi ad esempio il sistema missilistico terra-aria Patriot, capace di colpire bersagli aerei in modo indipendente.
Anche se nel corso dell'invasione dell'Iraq guidata dagli Stati Uniti nel 2003 il sistema distrusse due aerei alleati (un FA/18 Hornet americano e un Tornado Fighter britannico, uccidendo tre militari dell'aeronautica).
MISSILI BRIMSTONE
La Royal Air Force inglese da qualche anno ha lanciato i missili Brimstone in grado di distinguere i vari target (tra cui carriarmati).
Si tratta di missili di precisione da attacco terra-aria, già protagonisti delle operazioni aeree britanniche in Libia e Iraq.
L’arma aggiornata con nuovo propulsore, testata e un seeker Dual Mode Semi-Active Laser/ Millimetric Wave che equipaggia i Tornado GR4 e verrà integrato sui Typhoon nell’ambito programma di aggiornamento P3E e del Progetto Centurion della RAF che punta a favorire la completa transizione al Typhoon delle capacità d’attacco oggi attribuite ai Tornado che verranno tutti radiati entro il 2019.
I test hanno valutato con successo le comunicazioni tra aereo e missile in vista dei lanci previsti per i primi mesi del 2017.
Recentemente sono stati completati da MBDA e Boeing anche una serie di test per l’integrazione del Brimstone sugli elicotteri da attacco del British Army Air Corps AH-64E Apache britannici.
Le prove sono durate nove mesi e si sono concluse con il lancio di alcuni missili da un AH-64E statunitense noleggiato da Londra sui poligoni di Mesa e Yuma, in Arizona, simulando attacchi a diversi obiettivi inclusi carri armati in movimento.
SISTEMI ANTI-SATELLITI
Un satellite spia o satellite di ricognizione è un satellite artificiale per l'osservazione della terra, lanciato per applicazioni di spionaggio.
Negli Stati Uniti, la maggior parte delle informazioni disponibili su questi satelliti e le loro missioni riguarda programmi che esistevano sino dal 1972.
Alcune informazioni sui programmi prima di quel tempo sono ancora coperte da segreto militare.
Le principali funzioni sono: fotografie ad alta risoluzione, intercettazione di comunicazioni, rilevazione di lanci di missili.
Avere dunque la capacità di distruggere o corrompere le comunicazioni via satellite dell’avversario è considerata una capacità militare importante da quando la corsa allo spazio è iniziata.
Dopo un accantonamento, negli ultimi anni, l’interesse per le armi spaziali rivive.
Attacchi informatici ai satelliti sono già una realtà, nota.
Già nel 2007 i cinesi dimostrarono di avere la capacità di abbattere satelliti con missili e nel 2008 negli Stati Uniti dimostrarono la stessa capacità.
Ad esempio il satellite cinese Shijian 15 mostrava una propulsione insolita e alla fine intercettava un altro satellite cinese, Shijian 7.
“L’esperimento era legato al possibile uso di un braccio di acquisizione remota e per operazioni ravvicinate“, ha detto Max White, del gruppo astronomico Kettering che s’illustrò negli anni ’60 individuando la posizione dei satelliti spia sovietici.
“Possono avere caratteristiche civili e militari, come rifornimenti spaziali e disattivare il carico di una nazione estera, possibilmente senza causare detriti. Se i russi sentano il bisogno di dimostrare tale capacità, è una questione da dibattere”.
HYPERSONIC GLIDE DELIVERY VEHICLES
Nel 2014, si è cominciato a parlare di nuovi tipi di armi come gli “Hypersonic Glide Delivery Vehicles”, ovvero sistemi composti da missili ad alta precisione per attacco fulmineo (leggi “a sorpresa”).
Negli Stati Uniti questi studi includono vari progetti, alcuni dei quali accantonati già durante la Guerra Fredda, come il ‘Boeing X-20 Dyna-Soar’ o il ‘Progetto Isinglass’ della CIA.
Invece per ‘Conventional Prompt Global Strike’ (CPGS) in particolare, si intende, di colpire obiettivi ovunque nel mondo in meno di un’ora.
Questa tecnologia consentirebbe di lanciare un attacco fulmineo globale con missili balistici intercontinentali armati però con testate convenzionali e non nucleari.
Con il termine “Hypersonic” si intende invece la capacità di un vettore di superare la velocità convenzionale di Mach 5.
La NASA avrebbe raggiunto e superato la velocità di Mach 7, toccando, con alcuni velivoli sperimentali senza pilota, come il prototipo ‘Boeing X-43’, il record di Mach 10. Questi velivoli utilizzano motori a getto con combustibile gassoso del tipo Scramjet (Supersonic Combustion Ramjet) i quali non utilizzano parti rotanti per comprimere l’aria, bensì l’energia cinetica prodotta dal flusso d’aria in ingresso e la particolare geometria della presa d’aria.
Il motore non avendo parti mobili, necessita a sua volta di un ulteriore vettore capace di produrre la spinta iniziale sufficiente per generare una velocità molto elevata (Boost Glide), ovvero portare lo Scramjet a regime supersonico.
Nel maggio 2013, per testare il velivolo sperimentale ‘Boeing X-51’ “WaveRider” gli Stati Uniti hanno dovuto portarlo ad oltre 16.000 metri di quota con un bombardiere ‘B-52’ “Stratofortress”. Una volta rilasciato, l’X-51 è stato accelerato da un razzo orbitale a propellente solido Pegasus.
Solo a quel punto, ovvero raggiunte le condizioni telemetriche e cinetiche necessarie, lo Scramjet ha potuto azionarsi, raggiungendo, secondo quanto ufficialmente riportato da organi d’informazione specializzati, la velocità di Mach 5.
Il principale vantaggio di simili veicoli è rappresentato dal fatto che una tale velocità li rende virtualmente immuni dall’essere intercettati e abbattuti dai sistemi di difesa nemici.
Senza dimenticare il continuo sviluppo dei più recenti vettori balistici ‘Topol’-M’ e ‘R-30 Bulava’, oltre che dei nuovi caccia per superiorità aerea, cosiddetti di 5a generazione, come il ‘Sukhoi PAK FA T-50’ (ormai entrato in fase di produzione avanzata), o il quasi assoluto predominio della scienza militare russa nello sviluppo dei siluri a supercavitazione come il ‘VA-111 Shkval’.
KALASHNIKOV CON IA
Il Kalashnikov dotato di intelligenza artificiale non è più tanto una fantasia o roba da film: ovvero un’arma micidiale che, anche se non avete mai sparato un colpo in vita vostra, vi permetterà di centrare i vostri bersagli senza nemmeno prendere la mira.
“L’intelligenza artificiale (IA) ha raggiunto un punto in cui lo sviluppo di armi autonome è un’eventualità che praticamente anche se non legalmente potrebbe concretizzarsi nel giro di anni: le armi autonome sono già state descritte come la terza rivoluzione in ambito bellico, dopo la polvere da sparo e le armi nucleari.
Se una qualsiasi delle più grandi potenze militari decide di sviluppare armi intelligenti, una corsa alle armi globale sarà virtualmente inevitabile, e il punto di arrivo di questa traiettoria tecnologica è ovvio: le armi automatiche saranno i Kalashnikov del domani”
Il riferimento ai Kalashnikov non è casuale, l’AK-47 è noto per essere stato il fucile d’assalto più utilizzato nel mondo, per via del costo relativamente basso dei suoi materiali e della sua affidabilità. Il punto di arrivo di cui parla la lettera di Future Of Life è una situazione in cui le armi autonome saranno non solo disponibili, ma anche facilmente riproducibili in casa (attraverso, per dire, la stampa 3D), creando una situazione ancora meno controllabile di quella attuale.
Il primo è il Fast Lightweight Autonomy (FLA), per lo sviluppo di minuscoli Droni (dimensioni di un insetto) in grado di viaggiare a gran velocità negli ambienti urbani per dare la caccia, riconoscere e colpire obiettivi (anche uomini).
Il secondo programma è il Collaborative Operations In Denied Environment (CODE), per lo sviluppo di interi sistemi di aerei capaci di operare in territorio nemico per cercare, riconoscere e colpire con ogni tipo di arma (anche in assenza di totale comunicazione con i comandi militari umani).
In pratica, un’aviazione complementare composta da un intero battaglione di Robot autonomi.
I paesi che come gli Stati Uniti, la Gran Bretagna o Israele stanno sviluppando simili sistemi d’arma, sostengono che saranno in grado di imporre comportamenti legali anche ai Robot guerrieri.
I Robot sui quali il Pentagono spende miliardi di dollari saranno chiamati a sostituire col tempo i soldati sul campo.
Il fattore umano si è infatti rivelato sempre più complesso e costoso da gestire: costi umani, psichiatrici e finanziari insostenibili.
Il tutto sarebbe ridotto se sul campo venissero spedite macchine che fanno più o meno tutte da sole.
Si avete capito bene.
I Robot avrebbero infatti la licenza di uccidere, anche persone, senza l’intervento di nessuno. Naturalmente devono essere programmati, ma se il programma fosse particolarmente “spietato”, questi marchingegni potrebbero togliere la vita ad un numero imprecisato di esseri umani.
Alcuni li considerano gli eredi dei Droni militari, ma a differenza di loro i Robot killer non sono comandati a distanza.
Eppure non tutti concordano sulla loro pericolosità: “Mi auguro che i killer Robot possano ridurre significativamente le vittime di incidenti durante le operazioni militari, curare in maniera tempestiva i feriti e realizzare interventi pericolosi che i soldati non potrebbero portare avanti” ha dichiarato a questo proposito alla BBC Ronald Arkin, professore presso il Georgia Institute Of Technology.
Molti paesi tipo Germania, si oppongono a questi sistemi, in quanto i Robot non potrebbero mai avere la capacità umana di percepire in modo preciso e senza ambiguità ciò che accade nel luogo dove operano, di riconoscere e manipolare oggetti, di riconoscere e in parte comprendere ogni linguaggio scritto e parlato, di muoversi in qualsiasi ambiente.
In poche parole possono essere complementari all’uomo, ma non possono sostituirli del tutto.
Proprio questo il nodo cruciale delle battaglie anti robot killer, portate avanti da diverse organizzazioni tra le quali l’Ong ‘Human Rights Watch’ e i rappresentanti della campagna ‘Stop the Killer Robots’, una coalizione internazionale costituita nell’aprile 2013 a sua volta a partire da altre associazioni che avevano come obiettivo la messa al bando delle armi completamente autonome.
Del resto, come si sa, i Robot potrebbero essere anche pericolosi.
Ovviamente parliamo di Robot in senso stretto ma sostanzialmente il concetto è quello: infatti qualche mese fa un team di ricercatori di Google ha affermato di aver realizzato un sorta di telecomando (Tasto Rosso) in grado di disattivare/spegnere un'intelligenza artificiale nel caso diventasse pericolosa.
UNMANNED SYSTEM: UAS, UGV, UUV
Si parla in gergo di “Unmanned System”, per indicare sistemi d’arma che non richiedono la presenza in essi di esseri umani.
Tali sistemi sono guidati (teleguidati, radioguidati) a distanza da esseri umani, oppure nei progetti più evoluti sono dotati di una più o meno ampia autonomia decisionale e d’azione.
Invece per “Manned System” s'intende “sistema con operatore umano”.
"Unmanned Vehicle" ovvero veicoli balistici, missili, proiettili d’artiglieria, torpedini, mine, satelliti, sensori statici.
Cioè veicoli con una forma propria di propulsione, senza operatore umano, che possono agire
autonomamente o essere comandati a distanza, equipaggiati con carico letale o non letale.
Possono infatti portare anche sistemi di sorveglianza (videocamere, radar, sonar, microfoni, etc.) o armi letali (cannoni, mitragliatrici, missili, razzi etc.).
I SAR si dividono in tre grandi famiglie, a seconda dell’ambiente in cui operano: l’aria, la terra, l’acqua.
Abbiamo dunque SAR attrezzati per la guerra aerea (UAS – Unmanned Aircraft System), per la guerra terrestre (UGV – Unmanned Ground Vehicle) e per la guerra navale.
Questi ultimi si dividono a loro volta in due categorie: di superficie (USV – Unmanned Surface Vehicle) e sottomarini (UUV – Unmanned Undersea Vehicle).
I Robot volanti sono detti Droni.
Si possono citare: i Droni aerei Predator e Reaper (Stati Uniti), e quelli terrestri Guardium (Israele).
I prototipi di aerei da combattimento senza pilota X-47B (Stati Uniti) e Taranis (Regno Unito), capaci di cercare, identificare e (se autorizzati) distruggere i nemici.
Le sentinelle robotizzate Sgr-A1 (Corea del Sud) e Sentry Tech (Israele), con sensori per individuare gli obiettivi, e mitragliatrici pronte a far fuoco.
Cina e Russia hanno testato gli aerei senza pilota Dark Sword e Skat.
E i missili britannici Brimstone già distinguono tra tank e macchine e possono inseguire un bersaglio senza aver bisogno di supervisione umana.
SENTRY ROBOT (SGR-A1)
Dal 2010, la Corea del Nord ha schierato lungo la linea di confine dei Sentry Robot (SGR-A1), dal costo di 330.000 dollari cadauno, in grado di garantire il blocco degli accessi lungo tutta le linea di confine.
Si parla qui di Robot semi-automatici.
Infatti erano controllati a distanza da un operatore che possiede una serie di rilevatori (tra cui quello di calore) per identificare la presenza di possibili "intrusi" che tentino di avvicinarsi al confine nazionale.
L'operatore può guidarlo e gestirlo a distanza, ma nel caso in cui il Robot dovesse perdere il canale di comunicazione con il proprio "driver", scatterebbe un meccanismo di autogestione e il sistema agirebbe autonomamente, attuando delle azioni automatiche di reazione.
AUTOMATED KILL ZONES, GUARDIUM, SENTRY TECH, REXROBOT E PROTECTOR SV
Anche Israele, da qualche anno, ha creato lungo il confine con la striscia di Gaza, delle "Automated Kill Zones" in cui ha installato dei sistemi robotizzati di fuoco, indipendenti e in grado di fare fuoco nel momento un cui si dovesse rilevare la presenza di "elementi non identificati".
Queste macchine da combattimento automatiche, sono munite di ogni sorta di armamento: mitragliatori, cannoni di medio calibro, lanciagranate, missili anticarro e terra-aria, e persino un collegamento con un Drone per il controllo del campo di battaglia.
Inoltre, i sistemi possono contare su una protezione corazzata retrattile, in grado di proteggere l'intero congegno quando non è in funzione.
Qualche anno fa sempre nel medesimo territorio è stato creato Guardium, un veicolo blindato progettato da GNius, per pattugliare le frontiere con il Libano e Gaza: è un fuoristrada di piccole dimensioni, dotato di sistema di comando, controllo e navigazione completamente automatizzato. Sono utilizzati anche Bulldozer, questi invece controllati in remoto.
Sentry Tech invece sono Robot sentinella.
Rexrobot, veicolo a 6 ruote per il trasporto di 200 kg di materiale al seguito della fanteria è invece capace di ricevere ec eseguire comandi vocali.
Il motoscafo Protector SV, detto Death Shark, è equipaggiato con 4 telecamere ad altissima definizione (cattura dettagli a 10 miglia) che possono arrivare al 3D, sistema sonar e sensori elettroottici, mitragliatrice controllata in remoto via laser capace di fissare l’obiettivo anche in mare mosso.
Sono molti inoltre i modelli di Robot progettati per esplorare le aree minate e individuare gli ordigni. Poiché anche le mine evolvono, essendo per esempio costruite con materiali sintetici che sfuggono ai metal detector, l’apparato sensoriale dei Robot deve evolvere in misura analoga per individuale questi ordigni letali.
DRONI KILLER: X-47B
Concepiti come velivoli senza pilota, destinati a missioni di sorveglianza e ricognizione, attualmente vengono soprattutto utilizzati come aerei multiruolo ottimizzati soprattutto per operazioni di attacco aereo, grazie anche alle accresciute capacità di carico, che consente loro di trasportare un armamentario molto variegato.
I Droni "killer" sono conosciuti anche come LAR (Lethal Autonomous Robot), si tratta di sistemi d'arma robotizzati che possono colpire target ed obbiettivi autonomamente (escludendo l'operatore umano da ogni azione/responsabilità).
Ad esempio il Drone di nuova generazione X-47B, è programmato per un volo in piena autonomia, capace di selezionare i target senza supervisione umana.
I documenti ricostruiscono la procedura che permette di autorizzare l’uccisione di un sospetto.
Le operazioni sono lanciate in funzione di una kill list (lista di persone da uccidere) in cui ogni nome entra solo dopo un’esplicita autorizzazione del presidente degli USA (se si parla appunto di Droni americani).
Prima di tutto su ogni possibile obiettivo vengono raccolte numerose informazioni, sintetizzate poi in una scheda di circa 6,5 centimetri per 9.
Questa scheda deve salire “ai livelli gerarchici superiori” per essere convalidata.
Un documento indica che ci vogliono in media 58 giorni al presidente per firmare un ordine di esecuzione.
L’esercito poi ha 60 giorni per portare a termine la sua operazione.
Le autorità statunitensi falsano gran parte delle cifre disponibili mettendo nella categoria di "nemici" le vittime non identificate
In attesa della loro esecuzione, gli obiettivi sono inseriti in una watch list che riassume la situazione della loro sorveglianza.
Ogni obiettivo è identificato da un codice unico associato a diversi dati, ed è geolocalizzato grazie alla sim del suo cellulare.
L’inchiesta permette anche di accertare gli eccessi di queste operazioni mirate, in particolare sul numero e sulle identità delle vittime.
La mancanza di informazioni e di dati riguardanti molti paesi, come lo Yemen e la Somalia, non permette di avere un bilancio affidabile delle vittime degli attacchi dei Droni.
Per approfondire: Droni e Robot.
DRONI STEALTH DA COMBATTIMENTO: TARANIS
Si tratta di un velivolo invisibile senza pilota per missioni C4ISTAR per la sorveglianza, la raccolta di informazioni e la guerra elettronica in territorio nemico.
Venne presentato al pubblico nel 2010.
Il primo volo di Taranis si è svolto tra l’ottobre 2013 ed il marzo del 2014 in prove top secret.
Le ali di Taranis presentano un elevato angolo di freccia positiva con un'apertura che misura 33 metri di larghezza.
Molto importanti sono i sistemi di comunicazione criptati, l'integrazione tra il motore e la capacità furtiva del velivolo per eludere i rilevamenti Radar.
Taranis, nome del dio celtico del tuono, rientra nel progetto noto come Future Combat Air System (FCAS).
FCAS ha l'obiettivo di sviluppare un nuovo Drone da combattimento Stealth, con paesi membri che contribuiscono in parti uguali alla metà del bilancio del programma.
Il Drone ha dimostrato la sua capacità di rullare autonomamente verso la pista per il decollo, decollare e volare sino alla zona di destinazione, individuare un bersaglio.
Taranis è stato in grado di generare un piano di volo fino al bersaglio, individuarlo e ritornare alla base.
Il velivolo inoltre ha compiuto una valutazione simulata dei danni arrecati al target prima di eseguire un atterraggio.
Il tutto senza l’intervento umano.
La tecnologia Stealth fa da schermatura Anti-Radar, esse si basa sul principio di eliminare i riflessi Radar assorbendo le onde radio (RAM Coating) o deviandole (Modellazione della superficie).
La tecnologia di assorbimento delle onde radio avviene principalmente attraverso il RAM (Radio Absorbent Material): il meccanismo è più o meno segreto visto che ancora oggi a distanza di decadi sappiamo poco o nulla del sistema RAM del SR 71 (uno dei primi aerei Stealth costruiti dalla Lockheed) e ciò fa capire quanto questa tecnologia sia importante per gli anni a venire.
L’assorbimento avviene attraverso la conversione dell’energia delle onde radio in calore che viene dissipato sulla superficie dell’aereo.
Per aumentare l’assorbimento delle onde radio, la vernice utilizzata su questi velivoli Stealth ha una forma di tipo piramidale (permette alle onde elettromagnetiche di rimbalzare all’interno della struttura piramidale cosi da perdere energia sotto forma di calore e diminuire l’intensità di segnale).
Modellando la forma del velivolo (veicolo/nave) attraverso piani netti angolati permette di deviare le onde radio in direzioni diverse, diminuendo cosi il riflesso delle onde all’apparecchio di provenienza.
Anche nel campo navale la tecnologia Stealth è in fase di sviluppo.
Il problema principale in questo campo è la grandezza delle navi: un Radar riuscirà comunque ad individuare una nave nel proprio range di azione, ma in caso di uso di tecnologia Stealth la nave potrebbe essere scambiata per un piccolo mercantile o un’imbarcazione di media dimensioni piuttosto che ad un incrociatore di grandi dimensioni.
Ad ogni modo Radar con tecnologia Banda-L potrebbero rilevare velivoli Stealth ed un velivolo crea una firma infrarossi IR dovuta al calore emesso (quindi usare vernici Stealth non elimina la firma IR dal cielo).
Infine i vani di carico di bombe o missili non sono Stealth (una volta aperto il vano il velivolo è completamente visibile).
MISSILI TERRA-ARIA PATRIOT
Sono decenni che esistono armamenti missilistici in grado di prendere decisioni autonome, pur se con dei limiti specifici, tra di essi ad esempio il sistema missilistico terra-aria Patriot, capace di colpire bersagli aerei in modo indipendente.
Anche se nel corso dell'invasione dell'Iraq guidata dagli Stati Uniti nel 2003 il sistema distrusse due aerei alleati (un FA/18 Hornet americano e un Tornado Fighter britannico, uccidendo tre militari dell'aeronautica).
MISSILI BRIMSTONE
La Royal Air Force inglese da qualche anno ha lanciato i missili Brimstone in grado di distinguere i vari target (tra cui carriarmati).
Si tratta di missili di precisione da attacco terra-aria, già protagonisti delle operazioni aeree britanniche in Libia e Iraq.
L’arma aggiornata con nuovo propulsore, testata e un seeker Dual Mode Semi-Active Laser/ Millimetric Wave che equipaggia i Tornado GR4 e verrà integrato sui Typhoon nell’ambito programma di aggiornamento P3E e del Progetto Centurion della RAF che punta a favorire la completa transizione al Typhoon delle capacità d’attacco oggi attribuite ai Tornado che verranno tutti radiati entro il 2019.
I test hanno valutato con successo le comunicazioni tra aereo e missile in vista dei lanci previsti per i primi mesi del 2017.
Recentemente sono stati completati da MBDA e Boeing anche una serie di test per l’integrazione del Brimstone sugli elicotteri da attacco del British Army Air Corps AH-64E Apache britannici.
Le prove sono durate nove mesi e si sono concluse con il lancio di alcuni missili da un AH-64E statunitense noleggiato da Londra sui poligoni di Mesa e Yuma, in Arizona, simulando attacchi a diversi obiettivi inclusi carri armati in movimento.
SISTEMI ANTI-SATELLITI
Un satellite spia o satellite di ricognizione è un satellite artificiale per l'osservazione della terra, lanciato per applicazioni di spionaggio.
Negli Stati Uniti, la maggior parte delle informazioni disponibili su questi satelliti e le loro missioni riguarda programmi che esistevano sino dal 1972.
Alcune informazioni sui programmi prima di quel tempo sono ancora coperte da segreto militare.
Le principali funzioni sono: fotografie ad alta risoluzione, intercettazione di comunicazioni, rilevazione di lanci di missili.
Avere dunque la capacità di distruggere o corrompere le comunicazioni via satellite dell’avversario è considerata una capacità militare importante da quando la corsa allo spazio è iniziata.
Dopo un accantonamento, negli ultimi anni, l’interesse per le armi spaziali rivive.
Attacchi informatici ai satelliti sono già una realtà, nota.
Già nel 2007 i cinesi dimostrarono di avere la capacità di abbattere satelliti con missili e nel 2008 negli Stati Uniti dimostrarono la stessa capacità.
Ad esempio il satellite cinese Shijian 15 mostrava una propulsione insolita e alla fine intercettava un altro satellite cinese, Shijian 7.
“L’esperimento era legato al possibile uso di un braccio di acquisizione remota e per operazioni ravvicinate“, ha detto Max White, del gruppo astronomico Kettering che s’illustrò negli anni ’60 individuando la posizione dei satelliti spia sovietici.
“Possono avere caratteristiche civili e militari, come rifornimenti spaziali e disattivare il carico di una nazione estera, possibilmente senza causare detriti. Se i russi sentano il bisogno di dimostrare tale capacità, è una questione da dibattere”.
HYPERSONIC GLIDE DELIVERY VEHICLES
Nel 2014, si è cominciato a parlare di nuovi tipi di armi come gli “Hypersonic Glide Delivery Vehicles”, ovvero sistemi composti da missili ad alta precisione per attacco fulmineo (leggi “a sorpresa”).
Negli Stati Uniti questi studi includono vari progetti, alcuni dei quali accantonati già durante la Guerra Fredda, come il ‘Boeing X-20 Dyna-Soar’ o il ‘Progetto Isinglass’ della CIA.
Invece per ‘Conventional Prompt Global Strike’ (CPGS) in particolare, si intende, di colpire obiettivi ovunque nel mondo in meno di un’ora.
Questa tecnologia consentirebbe di lanciare un attacco fulmineo globale con missili balistici intercontinentali armati però con testate convenzionali e non nucleari.
Con il termine “Hypersonic” si intende invece la capacità di un vettore di superare la velocità convenzionale di Mach 5.
La NASA avrebbe raggiunto e superato la velocità di Mach 7, toccando, con alcuni velivoli sperimentali senza pilota, come il prototipo ‘Boeing X-43’, il record di Mach 10. Questi velivoli utilizzano motori a getto con combustibile gassoso del tipo Scramjet (Supersonic Combustion Ramjet) i quali non utilizzano parti rotanti per comprimere l’aria, bensì l’energia cinetica prodotta dal flusso d’aria in ingresso e la particolare geometria della presa d’aria.
Il motore non avendo parti mobili, necessita a sua volta di un ulteriore vettore capace di produrre la spinta iniziale sufficiente per generare una velocità molto elevata (Boost Glide), ovvero portare lo Scramjet a regime supersonico.
Nel maggio 2013, per testare il velivolo sperimentale ‘Boeing X-51’ “WaveRider” gli Stati Uniti hanno dovuto portarlo ad oltre 16.000 metri di quota con un bombardiere ‘B-52’ “Stratofortress”. Una volta rilasciato, l’X-51 è stato accelerato da un razzo orbitale a propellente solido Pegasus.
Solo a quel punto, ovvero raggiunte le condizioni telemetriche e cinetiche necessarie, lo Scramjet ha potuto azionarsi, raggiungendo, secondo quanto ufficialmente riportato da organi d’informazione specializzati, la velocità di Mach 5.
Il principale vantaggio di simili veicoli è rappresentato dal fatto che una tale velocità li rende virtualmente immuni dall’essere intercettati e abbattuti dai sistemi di difesa nemici.
Senza dimenticare il continuo sviluppo dei più recenti vettori balistici ‘Topol’-M’ e ‘R-30 Bulava’, oltre che dei nuovi caccia per superiorità aerea, cosiddetti di 5a generazione, come il ‘Sukhoi PAK FA T-50’ (ormai entrato in fase di produzione avanzata), o il quasi assoluto predominio della scienza militare russa nello sviluppo dei siluri a supercavitazione come il ‘VA-111 Shkval’.
KALASHNIKOV CON IA
Il Kalashnikov dotato di intelligenza artificiale non è più tanto una fantasia o roba da film: ovvero un’arma micidiale che, anche se non avete mai sparato un colpo in vita vostra, vi permetterà di centrare i vostri bersagli senza nemmeno prendere la mira.
“L’intelligenza artificiale (IA) ha raggiunto un punto in cui lo sviluppo di armi autonome è un’eventualità che praticamente anche se non legalmente potrebbe concretizzarsi nel giro di anni: le armi autonome sono già state descritte come la terza rivoluzione in ambito bellico, dopo la polvere da sparo e le armi nucleari.
Se una qualsiasi delle più grandi potenze militari decide di sviluppare armi intelligenti, una corsa alle armi globale sarà virtualmente inevitabile, e il punto di arrivo di questa traiettoria tecnologica è ovvio: le armi automatiche saranno i Kalashnikov del domani”
Il riferimento ai Kalashnikov non è casuale, l’AK-47 è noto per essere stato il fucile d’assalto più utilizzato nel mondo, per via del costo relativamente basso dei suoi materiali e della sua affidabilità. Il punto di arrivo di cui parla la lettera di Future Of Life è una situazione in cui le armi autonome saranno non solo disponibili, ma anche facilmente riproducibili in casa (attraverso, per dire, la stampa 3D), creando una situazione ancora meno controllabile di quella attuale.
giovedì 22 settembre 2016
Cos'è Il Machine Learning: Enterprise Immune System ed Altre Tecniche
Il Machine Learning, detto anche in italiano Apprendimento Automatico, sfrutta intelligenze artificiali, reti neurali artificiali ed algoritmi (algoritmi genetici e non) al fine di analizzare e valutare le relazioni tra le variabili immesse.
In poche parole il sistema "impara" a riconoscere automaticamente modelli complessi e a prendere decisioni intelligenti basate su dati.
Al giorno d'oggi non esistono sistemi di apprendimento automatico simili all'uomo ma sono stati fatti passi da gigante.
Per problemi quali il riconoscimento vocale, algoritmi basati sull'apprendimento automatico danno i migliori risultati.
Nel campo conosciuto come data mining, questi algoritmi sono utilizzati di routine per scoprire preziose conoscenze da grandi basi di dati commerciali contenenti un grande numero di informazioni.
L'apprendimento automatico si basa sui risultati di intelligenza artificiale, probabilità e statistica, teoria della complessità computazionale, teoria di controllo, teoria dell'informazione, etc
CYBER SECURITY COMMAND CENTER
A Milano è stato aperto il Cyber Security Command Center, centro di monitoraggio real time, e gestione degli apparati di sicurezza oltre a servizi di security assessment.
L'individuazione preventiva e la gestione real time dei problemi di sicurezza sono fattori di primaria importanza per garantire alle aziende clienti un alto livello di protezione delle proprie reti, dei propri dati e dei propri servizi che a loro volta erogano sia all'interno sia all'esterno della propria organizzazione.
Particolarità del Cyber Security Command Center è il Malware Lab, un laboratorio di ricerca frutto di un accordo in esclusiva con il Politecnico di Milano per sviluppare nuovi modelli di analisi e profilazione, utili a contrastare gli oltre 50mila Malware registrati ogni giorno.
Il Malware Lab è nato dalla volontà, da un lato, di studiare costantemente le minacce emergenti e creare nuove metodologie di analisi e, dall'altro, di fornire alle aziende soluzioni reali di difesa a scenari di attacco in continua evoluzione.
Il Malware Lab si occupa di sviluppare nuove tecnologie in grado di individuare dettagli rilevanti in tempo reale per battere sul tempo l'attività del software malevolo.
Per l'analisi delle minacce e la loro prevenzione, vengono sfruttate le potenzialità del Cloud e del Machine Learning.
L'ENTERPRISE IMMUNE SYSTEM DI DARKTRACE
L’integrazione degli algoritmi di Machine Learning nell’appliance (cioè dispositivi Hardware dotati di un sistema operativo dove girano ovviamente software) rende quest’ultima indipendente da una eventuale connessione a un servizio cloud.
Questi algoritmi vengono studiati, perfezionati ed integrati da Darktrace.
Darktrace è stata creata a Cambridge nel 2013 e comprende persone provenienti dall’intelligence britannica.
Le competenze matematico-statistiche dello staff di partenza di Darktrace sono importanti perché il suo approccio alla sicurezza è basato sull’applicazione delle tecniche di Machine Learning al monitoraggio della rete, in modo da scoprire elementi anomali anche in assenza delle tipiche forme di identificazione, come le firme dei malware o le segnalazioni delle reti di Threat Intelligence.
Darktrace conta al suo attivo un migliaio di installazioni in tutti i settori.
Tra quelle in Italia si segnala il progetto di HBG Gaming, società attiva nel settore del gaming online. Inizialmente la società ha voluto testare le soluzioni Darktrace per un mese e, racconta, nel giro di un paio di settimane queste hanno identificato comportamenti anomali nella rete, incluso un Ransomware.
La società occupandosi proprio di difesa dalle infezioni ha deciso di chiamare la sua piattaforma Enterprise Immune System: l’obiettivo è proprio quello di “immunizzare” il sistema informativo contro l’azione degli elementi ostili.
Non solo Malware, Virus e Spyware però, dato che il panorama della IT security oggi è molto più complesso.
L’Enterprise Immune System è installata all’interno della rete da monitorare.
È qui che sono integrati gli algoritmi di analisi e apprendimento sviluppati da Darktrace.
Dopo l’installazione l’appliance inizia a “osservare” il comportamento della rete e le comunicazioni dei suoi nodi, in modo da definirne il modello di riferimento (la baseline).
Saranno gli scostamenti da tale modello ideale/originario, valutati da specifici algoritmi statistico-probabilistici, a indicare se è in corso un attacco alla rete o qualche suo nodo è stato infettato.
Il modello ovviamente si evolve nel tempo.
Il monitoraggio del traffico di rete si basa sull’analisi dei flussi di dati per le coppie mittente-destinatario.
AZURE AD IDENTITY PROTECTION DI MICROSOFT
Microsoft ha annunciato la disponibilità di Azure AD Identity Protection, una funzione che garantisce la correttezza degli accessi alle risorse IT di una rete aziendale e in ultima analisi la sua sicurezza.
Si tratta di un sistema basato su funzioni di Machine Learning che serve da un lato a bloccare attacchi alla rete e dell’altro a ottimizzare la configurazione della propria struttura di directory su Azure.
Lo scopo principale di AD Identity Protection è evitare la compromissione degli account, che di solito avviene a causa di attacchi di Phishing ben riusciti.
Una volta entrati nella rete rubando l’identità di un dipendente, spiega Microsoft, gli attaccanti hanno libertà di movimento.
E' qui che subentra il servizio visto che grazie all’utilizzo di algoritmi di analisi la grande mole di accessi viene poi incrociato con le informazioni sulle minacce in atto che provengono da altri servizi Microsoft, in particolare sugli attacchi di Phishing registrati per Outlook.com ed Exchange Online.
Tutti questi dati e questa “intelligenza” sono usati per dare a ogni login ad Azure Active Directory un indice di affidabilità che, a seconda del suo valore, può bloccare del tutto un accesso oppure subordinarlo a verifiche ulteriori come un’autenticazione a più fattori.
Ovviamente il controllo non è lasciato totalmente in mano al Machine Learning di Microsoft: Identity Protection è anche configurabile dagli amministratori di sistema.
AMAZON MACHINE LEARNING
Amazon invece utilizza il Machine Learning come sistema di apprendimento e generazione di modelli previsionali, esso permette più facilmente di fare uso di informazioni storiche per costruire e implementare nuovi modelli previsionali.
L’ Amazon Machine Learning genera modelli predittivi che possono essere utilizzati in diverso modo, dalle problematiche associate alle transazioni al miglioramento del supporto alla clientela.
Questi modelli possono essere utilizzati per diversi obiettivi, come, ad esempio, individuare le frodi e migliorare l’assistenza clienti.
Vengono prodotte circa 50 miliardi di previsioni a settimana.
Le API e le procedure di Amazon Machine Learning guidano gli sviluppatori attraverso il processo di creazione e sfruttano modelli di apprendimento automatico che possono essere facilmente implementati e scalati per supportare miliardi di previsioni.
In poche parole il sistema "impara" a riconoscere automaticamente modelli complessi e a prendere decisioni intelligenti basate su dati.
Al giorno d'oggi non esistono sistemi di apprendimento automatico simili all'uomo ma sono stati fatti passi da gigante.
Per problemi quali il riconoscimento vocale, algoritmi basati sull'apprendimento automatico danno i migliori risultati.
Nel campo conosciuto come data mining, questi algoritmi sono utilizzati di routine per scoprire preziose conoscenze da grandi basi di dati commerciali contenenti un grande numero di informazioni.
L'apprendimento automatico si basa sui risultati di intelligenza artificiale, probabilità e statistica, teoria della complessità computazionale, teoria di controllo, teoria dell'informazione, etc
CYBER SECURITY COMMAND CENTER
A Milano è stato aperto il Cyber Security Command Center, centro di monitoraggio real time, e gestione degli apparati di sicurezza oltre a servizi di security assessment.
L'individuazione preventiva e la gestione real time dei problemi di sicurezza sono fattori di primaria importanza per garantire alle aziende clienti un alto livello di protezione delle proprie reti, dei propri dati e dei propri servizi che a loro volta erogano sia all'interno sia all'esterno della propria organizzazione.
Particolarità del Cyber Security Command Center è il Malware Lab, un laboratorio di ricerca frutto di un accordo in esclusiva con il Politecnico di Milano per sviluppare nuovi modelli di analisi e profilazione, utili a contrastare gli oltre 50mila Malware registrati ogni giorno.
Il Malware Lab è nato dalla volontà, da un lato, di studiare costantemente le minacce emergenti e creare nuove metodologie di analisi e, dall'altro, di fornire alle aziende soluzioni reali di difesa a scenari di attacco in continua evoluzione.
Il Malware Lab si occupa di sviluppare nuove tecnologie in grado di individuare dettagli rilevanti in tempo reale per battere sul tempo l'attività del software malevolo.
Per l'analisi delle minacce e la loro prevenzione, vengono sfruttate le potenzialità del Cloud e del Machine Learning.
L'ENTERPRISE IMMUNE SYSTEM DI DARKTRACE
L’integrazione degli algoritmi di Machine Learning nell’appliance (cioè dispositivi Hardware dotati di un sistema operativo dove girano ovviamente software) rende quest’ultima indipendente da una eventuale connessione a un servizio cloud.
Questi algoritmi vengono studiati, perfezionati ed integrati da Darktrace.
Darktrace è stata creata a Cambridge nel 2013 e comprende persone provenienti dall’intelligence britannica.
Le competenze matematico-statistiche dello staff di partenza di Darktrace sono importanti perché il suo approccio alla sicurezza è basato sull’applicazione delle tecniche di Machine Learning al monitoraggio della rete, in modo da scoprire elementi anomali anche in assenza delle tipiche forme di identificazione, come le firme dei malware o le segnalazioni delle reti di Threat Intelligence.
Darktrace conta al suo attivo un migliaio di installazioni in tutti i settori.
Tra quelle in Italia si segnala il progetto di HBG Gaming, società attiva nel settore del gaming online. Inizialmente la società ha voluto testare le soluzioni Darktrace per un mese e, racconta, nel giro di un paio di settimane queste hanno identificato comportamenti anomali nella rete, incluso un Ransomware.
La società occupandosi proprio di difesa dalle infezioni ha deciso di chiamare la sua piattaforma Enterprise Immune System: l’obiettivo è proprio quello di “immunizzare” il sistema informativo contro l’azione degli elementi ostili.
Non solo Malware, Virus e Spyware però, dato che il panorama della IT security oggi è molto più complesso.
L’Enterprise Immune System è installata all’interno della rete da monitorare.
È qui che sono integrati gli algoritmi di analisi e apprendimento sviluppati da Darktrace.
Dopo l’installazione l’appliance inizia a “osservare” il comportamento della rete e le comunicazioni dei suoi nodi, in modo da definirne il modello di riferimento (la baseline).
Saranno gli scostamenti da tale modello ideale/originario, valutati da specifici algoritmi statistico-probabilistici, a indicare se è in corso un attacco alla rete o qualche suo nodo è stato infettato.
Il modello ovviamente si evolve nel tempo.
Il monitoraggio del traffico di rete si basa sull’analisi dei flussi di dati per le coppie mittente-destinatario.
AZURE AD IDENTITY PROTECTION DI MICROSOFT
Microsoft ha annunciato la disponibilità di Azure AD Identity Protection, una funzione che garantisce la correttezza degli accessi alle risorse IT di una rete aziendale e in ultima analisi la sua sicurezza.
Si tratta di un sistema basato su funzioni di Machine Learning che serve da un lato a bloccare attacchi alla rete e dell’altro a ottimizzare la configurazione della propria struttura di directory su Azure.
Lo scopo principale di AD Identity Protection è evitare la compromissione degli account, che di solito avviene a causa di attacchi di Phishing ben riusciti.
Una volta entrati nella rete rubando l’identità di un dipendente, spiega Microsoft, gli attaccanti hanno libertà di movimento.
E' qui che subentra il servizio visto che grazie all’utilizzo di algoritmi di analisi la grande mole di accessi viene poi incrociato con le informazioni sulle minacce in atto che provengono da altri servizi Microsoft, in particolare sugli attacchi di Phishing registrati per Outlook.com ed Exchange Online.
Tutti questi dati e questa “intelligenza” sono usati per dare a ogni login ad Azure Active Directory un indice di affidabilità che, a seconda del suo valore, può bloccare del tutto un accesso oppure subordinarlo a verifiche ulteriori come un’autenticazione a più fattori.
Ovviamente il controllo non è lasciato totalmente in mano al Machine Learning di Microsoft: Identity Protection è anche configurabile dagli amministratori di sistema.
AMAZON MACHINE LEARNING
Amazon invece utilizza il Machine Learning come sistema di apprendimento e generazione di modelli previsionali, esso permette più facilmente di fare uso di informazioni storiche per costruire e implementare nuovi modelli previsionali.
L’ Amazon Machine Learning genera modelli predittivi che possono essere utilizzati in diverso modo, dalle problematiche associate alle transazioni al miglioramento del supporto alla clientela.
Questi modelli possono essere utilizzati per diversi obiettivi, come, ad esempio, individuare le frodi e migliorare l’assistenza clienti.
Vengono prodotte circa 50 miliardi di previsioni a settimana.
Le API e le procedure di Amazon Machine Learning guidano gli sviluppatori attraverso il processo di creazione e sfruttano modelli di apprendimento automatico che possono essere facilmente implementati e scalati per supportare miliardi di previsioni.
mercoledì 21 settembre 2016
Cos'è La Cyber Threat Intelligence? Sicurezza Aziendale
La Cyber Intelligence fornisce una visione totale e in tempo reale delle anomalie emergenti contrariamente al precedente approccio ormai datato, basato su firme e regole che diventano obsolete dato che si riferiscono a minacce già individuate (e non in divenire). L’approccio basato sull’Intelligence è il cuore della Cyber Defense di nuova generazione. Oltre a difendere la propria azienda si devono affrontare anche le minacce interne utilizzando un approccio basato sull’Intelligence. Per Intelligence ci si riferisce ad azioni d’indagine che forniscono informazioni per affrontare rischi e minacce specifiche prima che l’avversario prenda il sopravvento. In generale tutti i progressi tecnologici che hanno consentito alle aziende di svilupparsi negli ultimi anni (la digitalizzazione e l’innovazione) sono anche quelli meno sicuri. A volte, gli stessi lavoratori rappresentano una minaccia significativa per l’integrità dei dati aziendali e il loro comportamento, doloso o colposo, aumenta il rischio per l’azienda. Controlli serrati e precauzioni sono utili ma non definitivi, in quanto trovare il modo di aggirarli è sempre possibile. Inoltre un’azienda non può essere soffocata da controlli di sicurezza farraginosi e poco pratici pensando di rimanere più sicura a spese dell’efficienza. Detto in parole povere, il mondo è sempre più basato sulle previsioni.
Per persone, aziende e istituzioni, la rapidità dei mutamenti sociali richiede competenze per anticipare gli eventi, perché chi conosce prima ha un vantaggio rispetto agli altri.
Nell’era delle tecnologie, dunque, c’è sempre maggiore bisogno dell’intelligenza umana, poiché gli algoritmi non sempre hanno ragione e anzi a volte possono risultare fuorvianti.
I Big Data ad esempio costituiscono senza dubbio uno strumento di grande utilità per gli scopi dell’Intelligence.
INTELLIGENCE O SICUREZZA INFORMATICA?
Le aziende non sono mai completamente al sicuro da minacce, inoltre ogni attacco subito compromette il nome dell'azienda, facendo diminuire la credibilità dei clienti e degli azionisti.
Queste problematiche richiedono tecniche orientate più sull’Intelligence che sulla sicurezza.
Mentre la sicurezza informatica presuppone che le misure di difesa debbano funzionare il 100% delle volte, la Cyber Intelligence fornisce suggerimenti, basati su prove, che indirizzano il processo decisionale. Cioè vengono suggeriti accorgimenti in base alla situazione che possono far propendere da un lato o da un altro. Come si sa, su internet si trovano avanzati strumenti di attacco pronti all’uso (software malevoli, botnet, backdoor, keylogger) e questo dimostra come sia banale infiltrarsi in un’azienda. Una volta infiltratisi, gli attacchi hanno luogo in forma anonima rendendoli difficili da individuare perché in incognito e effettuati con cautela. Un aggressore potrebbe usare le credenziali di accesso di un dipendente per passare inosservato. Questo approccio rende estremamente difficile distinguere fra un’attività lecita e quella di un malintenzionato intento a fare danni.
Essere riconosciuti come utenti regolari permette di muoversi indisturbati nell'azienda.
Un attacco di tipo avanzato può restare nascosto nella rete per giorni, settimane o mesi di fila rimanendo pazientemente inattivo nella rete aziendale in modo da renderne l’individuazione più difficile. Durante questo lasso di tempo l’aggressore si fa un’idea dell’architettura della rete e stabilisce come muoversi su di essa per portare a termine l’attacco mirato. Per porsi al riparo da eventuali intercettazioni l’aggressore cercherà di compromettere più dispositivi e server presenti sulla rete.
Chi attacca è spesso capace di muoversi su una rete per capire quali siano gli strumenti usati per intercettarlo; questo gli permette di muoversi in modo sufficientemente invisibile per evitare di essere scoperto dai tipici sistemi che basano il loro funzionamento su un insieme di regole.
La sicurezza informatica totale non esiste. Inoltre in un’epoca in cui le minacce sono innumerevoli e in continua evoluzione analizzare i problemi di ieri non garantisce la difesa da quelli di domani.
Gli aggressori di oggi utilizzano tecniche e strategie in continua evoluzione per rimanere nascosti a lungo nei vostri sistemi.
CYBER INTELLIGENCE PER LE ANOMALIE
Avendo la conoscenza delle attività aziendali è possibile usare nuove tecnologie per analizzarle ed avere una chiara visione di quale sia la normalità. Il Machine Learning ha reso possibile questo approccio, usando una tecnologia che evidenzia anomalie su base probabilistica in tempo reale (cioè monitora la vostra rete e segnala eventuali anomalie quindi il discostamento dalla situazione "ideale" o normale). Le anomalie o le deviazioni da ciò che è stato identificato come normale sui sistemi, le reti e gli utenti devono essere autentiche e basate sulla comprensione dinamica dell’ambiente circostante.
Un comportamento difforme spesso può essere affrontato in modo appropriato, ma solo se rilevato nelle sue fasi iniziali. Queste tecniche d’Intelligence aiutano a conoscere l’ambiente digitale aziendale così com’è per prendere le corrette decisioni. Le vulnerabilità interne sono fonte di problemi che richiedono una valutazione continua. Bisogna cercare di capire dove concentrare l’attenzione e stabilire in tempo reale le priorità per la Cyber Defense. Gli addetti della sicurezza devono essere in grado di affinare la conoscenza delle minacce in modo che abbiano senso in un contesto aziendale invece di perdere tempo ad analizzare migliaia di falsi positivi (cioè allarmi inutili).
Per Threat Intelligence ci si riferisce alla raccolta e condivisione di informazioni su minacce note.
In altre parole si fa riferimento ad un database da confrontare con gli allarmi di sicurezza rilevati in un’azienda, i log e altri dati per capire se quanto rilevato è una minaccia oppure no.
Se quanto rilevato è riconducibile alle informazioni contenute nella Threat Intelligence ciò può essere usato per proteggere l’azienda da attacchi simili ancora in circolazione. Il limite è subito evidente: condividere informazioni riconducibili ad attacchi già avvenuti non aiuta le aziende a difendersi dai nuovi attacchi di domani. Affinché questo funzioni è necessario che almeno un’azienda venga violata da ogni nuovo attacco per poterlo identificare, limitandosi a segnalare gli attacchi già subiti con la speranza che lo stesso si possa ripresentare. Solitamente occorrono alcuni mesi prima che una nuova tipologia di attacco venga inclusa nella Threat Intelligence: nel frattempo la vostra azienda è vulnerabile a quegli attacchi che devono ancora essere scoperti e condivisi dalle loro vittime.
Nella peggiore delle ipotesi è un flusso di dati inutili che distoglie dall’obiettivo principale dell’azienda che è quello di difendersi dai nuovi attacchi, non da quelli già avvenuti.
È di scarso sollievo sapere che la vostra azienda è stata la prima a scoprire, e subire, un nuovo tipo di attacco. La Threat Intelligence deve essere adattata ad ogni singola azienda e controllata da un essere umano per poter prendere le appropriate decisioni nei momenti critici. L’Intelligence migliore è quella che aiuta un essere umano nel processo decisionale, che gli dà la miglior sicurezza nel prendere decisioni corrette. Quindi la vera sicurezza non è quella che identifica le minacce e i metodi di attacco già noti, ma si concentra sulla corretta comprensione di ciò che sta avvenendo in azienda.
La Cyber Intelligence deve guidare nel prendere decisioni quando le infiltrazioni sono nella loro fase iniziale e gestibile, in una finestra temporale che consenta di verificarne l’efficacia ed evitare che la situazione diventi difficile da risolvere.
Per persone, aziende e istituzioni, la rapidità dei mutamenti sociali richiede competenze per anticipare gli eventi, perché chi conosce prima ha un vantaggio rispetto agli altri.
Nell’era delle tecnologie, dunque, c’è sempre maggiore bisogno dell’intelligenza umana, poiché gli algoritmi non sempre hanno ragione e anzi a volte possono risultare fuorvianti.
I Big Data ad esempio costituiscono senza dubbio uno strumento di grande utilità per gli scopi dell’Intelligence.
INTELLIGENCE O SICUREZZA INFORMATICA?
Le aziende non sono mai completamente al sicuro da minacce, inoltre ogni attacco subito compromette il nome dell'azienda, facendo diminuire la credibilità dei clienti e degli azionisti.
Queste problematiche richiedono tecniche orientate più sull’Intelligence che sulla sicurezza.
Mentre la sicurezza informatica presuppone che le misure di difesa debbano funzionare il 100% delle volte, la Cyber Intelligence fornisce suggerimenti, basati su prove, che indirizzano il processo decisionale. Cioè vengono suggeriti accorgimenti in base alla situazione che possono far propendere da un lato o da un altro. Come si sa, su internet si trovano avanzati strumenti di attacco pronti all’uso (software malevoli, botnet, backdoor, keylogger) e questo dimostra come sia banale infiltrarsi in un’azienda. Una volta infiltratisi, gli attacchi hanno luogo in forma anonima rendendoli difficili da individuare perché in incognito e effettuati con cautela. Un aggressore potrebbe usare le credenziali di accesso di un dipendente per passare inosservato. Questo approccio rende estremamente difficile distinguere fra un’attività lecita e quella di un malintenzionato intento a fare danni.
Essere riconosciuti come utenti regolari permette di muoversi indisturbati nell'azienda.
Un attacco di tipo avanzato può restare nascosto nella rete per giorni, settimane o mesi di fila rimanendo pazientemente inattivo nella rete aziendale in modo da renderne l’individuazione più difficile. Durante questo lasso di tempo l’aggressore si fa un’idea dell’architettura della rete e stabilisce come muoversi su di essa per portare a termine l’attacco mirato. Per porsi al riparo da eventuali intercettazioni l’aggressore cercherà di compromettere più dispositivi e server presenti sulla rete.
Chi attacca è spesso capace di muoversi su una rete per capire quali siano gli strumenti usati per intercettarlo; questo gli permette di muoversi in modo sufficientemente invisibile per evitare di essere scoperto dai tipici sistemi che basano il loro funzionamento su un insieme di regole.
La sicurezza informatica totale non esiste. Inoltre in un’epoca in cui le minacce sono innumerevoli e in continua evoluzione analizzare i problemi di ieri non garantisce la difesa da quelli di domani.
Gli aggressori di oggi utilizzano tecniche e strategie in continua evoluzione per rimanere nascosti a lungo nei vostri sistemi.
CYBER INTELLIGENCE PER LE ANOMALIE
Avendo la conoscenza delle attività aziendali è possibile usare nuove tecnologie per analizzarle ed avere una chiara visione di quale sia la normalità. Il Machine Learning ha reso possibile questo approccio, usando una tecnologia che evidenzia anomalie su base probabilistica in tempo reale (cioè monitora la vostra rete e segnala eventuali anomalie quindi il discostamento dalla situazione "ideale" o normale). Le anomalie o le deviazioni da ciò che è stato identificato come normale sui sistemi, le reti e gli utenti devono essere autentiche e basate sulla comprensione dinamica dell’ambiente circostante.
Un comportamento difforme spesso può essere affrontato in modo appropriato, ma solo se rilevato nelle sue fasi iniziali. Queste tecniche d’Intelligence aiutano a conoscere l’ambiente digitale aziendale così com’è per prendere le corrette decisioni. Le vulnerabilità interne sono fonte di problemi che richiedono una valutazione continua. Bisogna cercare di capire dove concentrare l’attenzione e stabilire in tempo reale le priorità per la Cyber Defense. Gli addetti della sicurezza devono essere in grado di affinare la conoscenza delle minacce in modo che abbiano senso in un contesto aziendale invece di perdere tempo ad analizzare migliaia di falsi positivi (cioè allarmi inutili).
Per Threat Intelligence ci si riferisce alla raccolta e condivisione di informazioni su minacce note.
In altre parole si fa riferimento ad un database da confrontare con gli allarmi di sicurezza rilevati in un’azienda, i log e altri dati per capire se quanto rilevato è una minaccia oppure no.
Se quanto rilevato è riconducibile alle informazioni contenute nella Threat Intelligence ciò può essere usato per proteggere l’azienda da attacchi simili ancora in circolazione. Il limite è subito evidente: condividere informazioni riconducibili ad attacchi già avvenuti non aiuta le aziende a difendersi dai nuovi attacchi di domani. Affinché questo funzioni è necessario che almeno un’azienda venga violata da ogni nuovo attacco per poterlo identificare, limitandosi a segnalare gli attacchi già subiti con la speranza che lo stesso si possa ripresentare. Solitamente occorrono alcuni mesi prima che una nuova tipologia di attacco venga inclusa nella Threat Intelligence: nel frattempo la vostra azienda è vulnerabile a quegli attacchi che devono ancora essere scoperti e condivisi dalle loro vittime.
Nella peggiore delle ipotesi è un flusso di dati inutili che distoglie dall’obiettivo principale dell’azienda che è quello di difendersi dai nuovi attacchi, non da quelli già avvenuti.
È di scarso sollievo sapere che la vostra azienda è stata la prima a scoprire, e subire, un nuovo tipo di attacco. La Threat Intelligence deve essere adattata ad ogni singola azienda e controllata da un essere umano per poter prendere le appropriate decisioni nei momenti critici. L’Intelligence migliore è quella che aiuta un essere umano nel processo decisionale, che gli dà la miglior sicurezza nel prendere decisioni corrette. Quindi la vera sicurezza non è quella che identifica le minacce e i metodi di attacco già noti, ma si concentra sulla corretta comprensione di ciò che sta avvenendo in azienda.
La Cyber Intelligence deve guidare nel prendere decisioni quando le infiltrazioni sono nella loro fase iniziale e gestibile, in una finestra temporale che consenta di verificarne l’efficacia ed evitare che la situazione diventi difficile da risolvere.
lunedì 19 settembre 2016
E' Possibile La "Lossless Recursive Compression Of Random Data"?
Nel 2012 Constant Wong e una compagnia cinese annunciò la creazione della "Lossless Recursive Compression Of Random Data", 8 anni di fatica per sviluppare una tecnologia di compressione ricorsiva senza perdita di dati.
Tale tecnologia, per i dati random, è sempre stata considerata impossibile da raggiungere.
Infatti è possibile applicare lo stesso algoritmo di compressione più volte ma aspettarsi di continuare a ridurre le dimensioni dei dati è sempre stata considerata una cosa impossibile da raggiungere.
Anzi dopo 1 compressione, rieseguendola, potrebbe verificarsi un aumento delle dimensioni del file.
Questo è prevedibile.
Se un dato algoritmo Lossless potrebbe produrre più compressioni di dati con lo stesso metodo e senza perdita d'informazioni, probabilmente avrebbe fatto ciò la prima volta che viene eseguito (e non in modo ricorsivo).
Dunque applicando nuovamente lo stesso metodo per i dati compressi è in teoria impossibile produrre un'ulteriore riduzione delle dimensioni.
Quello che invece si può fare è la combinazione di più algoritmi di compressione diversi.
Ad esempio, LZ77 si combina bene con la codifica di Huffman.
La fattibilità di diverse compressioni dipende dalla "profondità" del files (cioè dalla dimensione minima che è possibile raggiungere) e dall'algoritmo utilizzato.
Quindi in poche parole, non è possibile: comprimere dati Random e in modo ricorsivo con lo stesso algoritmo.
La fantomatica Lossless Recursive Compression invece è in grado di comprimere dati random o discreti, più volte, senza alcuna perdita di qualità.
In altre parole, dopo la compressione dei file, essi riducono la loro dimensione ma non la forma originale.
Come detto prima tendenzialmente un file una volta compresso, non può essere ulteriormente compresso con la stessa tecnologia perchè non è più lo stesso tipo di file: è diventato random.
Pertanto, se con ciò si possono comprimere dati random, lo si può fare più volte.
La compagnia spiegò di aver raggiunto questo, tramite teoremi matematici con serie di progressione geometriche.
Wong sottolineò che uno degli aspetti più innovativi della tecnologia è che poteva comprimere e decomprimere i dati digitali in tempo reale.
Questo sarebbe stato fondamentale per l'implementazione di streaming video, broadcasting e telecomunicazioni.
Questa tecnologia avrebbe risolto anche sovraccarichi di rete consentendo inoltre di migliorare la capacità delle strutture di storage e limitando i consumi energetici.
FUNZIONAMENTO E TEOREMA DI SHANNON (SOURCE CODING THEOREM)
Se due file sono compressi con la tecnologia di compressione ricorsiva, anche se solo un bit venisse compresso dopo ogni passaggio, potrebbero essere entrambi ridotti a un singolo 0 o 1.
Come potrebbero essere quindi decodificati se questo stesso bit origina due files diversi?
Questo secondo gli sviluppatori non accade perché dopo che un file subisce un gran numero di passaggi di compressione, raggiungerà l'optimum, rendendo gli ulteriori passaggi trascurabili.
Inoltre, anche nel caso che due files diventino esattamente uguali al loro "optimum" per pura coincidenza, i files decompressi saranno sicuramente diversi, perché i due files son passati attraverso un diverso numero di passaggi per raggiungere lo stesso "optimum".
Il Teorema di Shannon afferma che se due files differenti possono entrambi essere compressi in modo ricorsivo ad essere ricondotti ad un singolo 0, come si potrebbe decodificare il singolo 0 originando due file diversi?
Lo stesso Teorema stabilisce dei limiti di massima compressione per quanto riguarda un insieme di dati e definisce il significato operativo dell'entropia.
Il teorema dice che, per una serie di variabili aleatorie indipendenti di lunghezza che tende ad infinito, non è possibile comprimere i dati in un messaggio più corto dell'entropia totale senza perdita di informazione.
Al contrario, compressioni arbitrariamente vicine al valore di entropia sono possibili, con probabilità di piccole perdite d'informazione (casuale).
Esiste un limite inferiore e superiore alla minima lunghezza attesa di una serie di parole di codice, in funzione dell'entropia della parola in ingresso (vista come una variabile aleatoria) e della dimensione dell'alfabeto in esame.
Secondo il team cinese invece, se un file è passato attraverso quattro passaggi per diventare un singolo 0 e un altro file è passato attraverso cinque passi per diventare la stessa cosa, decodificando i singoli 0 quattro volte (ripristinando il file originale di 16 0's) e cinque volte (file originale di 32 0's) si avranno due file completamente diversi (decodificati dallo stesso singolo 0!).
Questa tecnologia comprime files sostituendo stringhe di bit e rendendoli più brevi (9 bit).
Poi se molti file possono essere compressi in modo ricorsivo per diventare file a 8 bit, ci saranno 256 files diversi compressi, e ciascuno può essere decodificato attraverso diversi passaggi, con conseguente creazione d' infiniti files differenti.
Ovviamente non tutte le stringhe di 8 bit possono essere sostituiti da stringhe, questo è ciò che il team intendeva quando parlava di "optimum", ovvero un file che non può essere compresso ulteriormente, in quanto non può più essere sostituito da un segnale/stringa.
Tutto molto interessante, peccato che il Loseless Recursive Compression, al pari della compressione I2BP, rimarrà uno dei più grandi misteri (e forse bluff) dell'informatica recente.
ALTRI ARTICOLI
Tutti I Codec e Formati Audio Di Compressione
Tutti I Codec e Formati Video Di Compressione
Differenze Tra Compressione Lossy e Lossless: Vantaggi e Svantaggi
La Storia Di Jan Sloot e Il Misterioso Sloot Digital Coding System
Il Mistero Della Compressione Video I2BP: Idea Rivoluzionaria o Bluff? (2001)
Tale tecnologia, per i dati random, è sempre stata considerata impossibile da raggiungere.
Infatti è possibile applicare lo stesso algoritmo di compressione più volte ma aspettarsi di continuare a ridurre le dimensioni dei dati è sempre stata considerata una cosa impossibile da raggiungere.
Anzi dopo 1 compressione, rieseguendola, potrebbe verificarsi un aumento delle dimensioni del file.
Questo è prevedibile.
Se un dato algoritmo Lossless potrebbe produrre più compressioni di dati con lo stesso metodo e senza perdita d'informazioni, probabilmente avrebbe fatto ciò la prima volta che viene eseguito (e non in modo ricorsivo).
Dunque applicando nuovamente lo stesso metodo per i dati compressi è in teoria impossibile produrre un'ulteriore riduzione delle dimensioni.
Quello che invece si può fare è la combinazione di più algoritmi di compressione diversi.
Ad esempio, LZ77 si combina bene con la codifica di Huffman.
La fattibilità di diverse compressioni dipende dalla "profondità" del files (cioè dalla dimensione minima che è possibile raggiungere) e dall'algoritmo utilizzato.
Quindi in poche parole, non è possibile: comprimere dati Random e in modo ricorsivo con lo stesso algoritmo.
La fantomatica Lossless Recursive Compression invece è in grado di comprimere dati random o discreti, più volte, senza alcuna perdita di qualità.
In altre parole, dopo la compressione dei file, essi riducono la loro dimensione ma non la forma originale.
Come detto prima tendenzialmente un file una volta compresso, non può essere ulteriormente compresso con la stessa tecnologia perchè non è più lo stesso tipo di file: è diventato random.
Pertanto, se con ciò si possono comprimere dati random, lo si può fare più volte.
La compagnia spiegò di aver raggiunto questo, tramite teoremi matematici con serie di progressione geometriche.
Wong sottolineò che uno degli aspetti più innovativi della tecnologia è che poteva comprimere e decomprimere i dati digitali in tempo reale.
Questo sarebbe stato fondamentale per l'implementazione di streaming video, broadcasting e telecomunicazioni.
Questa tecnologia avrebbe risolto anche sovraccarichi di rete consentendo inoltre di migliorare la capacità delle strutture di storage e limitando i consumi energetici.
FUNZIONAMENTO E TEOREMA DI SHANNON (SOURCE CODING THEOREM)
Se due file sono compressi con la tecnologia di compressione ricorsiva, anche se solo un bit venisse compresso dopo ogni passaggio, potrebbero essere entrambi ridotti a un singolo 0 o 1.
Come potrebbero essere quindi decodificati se questo stesso bit origina due files diversi?
Questo secondo gli sviluppatori non accade perché dopo che un file subisce un gran numero di passaggi di compressione, raggiungerà l'optimum, rendendo gli ulteriori passaggi trascurabili.
Inoltre, anche nel caso che due files diventino esattamente uguali al loro "optimum" per pura coincidenza, i files decompressi saranno sicuramente diversi, perché i due files son passati attraverso un diverso numero di passaggi per raggiungere lo stesso "optimum".
Lo stesso Teorema stabilisce dei limiti di massima compressione per quanto riguarda un insieme di dati e definisce il significato operativo dell'entropia.
Il teorema dice che, per una serie di variabili aleatorie indipendenti di lunghezza che tende ad infinito, non è possibile comprimere i dati in un messaggio più corto dell'entropia totale senza perdita di informazione.
Al contrario, compressioni arbitrariamente vicine al valore di entropia sono possibili, con probabilità di piccole perdite d'informazione (casuale).
Esiste un limite inferiore e superiore alla minima lunghezza attesa di una serie di parole di codice, in funzione dell'entropia della parola in ingresso (vista come una variabile aleatoria) e della dimensione dell'alfabeto in esame.
Secondo il team cinese invece, se un file è passato attraverso quattro passaggi per diventare un singolo 0 e un altro file è passato attraverso cinque passi per diventare la stessa cosa, decodificando i singoli 0 quattro volte (ripristinando il file originale di 16 0's) e cinque volte (file originale di 32 0's) si avranno due file completamente diversi (decodificati dallo stesso singolo 0!).
Questa tecnologia comprime files sostituendo stringhe di bit e rendendoli più brevi (9 bit).
Poi se molti file possono essere compressi in modo ricorsivo per diventare file a 8 bit, ci saranno 256 files diversi compressi, e ciascuno può essere decodificato attraverso diversi passaggi, con conseguente creazione d' infiniti files differenti.
Ovviamente non tutte le stringhe di 8 bit possono essere sostituiti da stringhe, questo è ciò che il team intendeva quando parlava di "optimum", ovvero un file che non può essere compresso ulteriormente, in quanto non può più essere sostituito da un segnale/stringa.
Tutto molto interessante, peccato che il Loseless Recursive Compression, al pari della compressione I2BP, rimarrà uno dei più grandi misteri (e forse bluff) dell'informatica recente.
ALTRI ARTICOLI
Tutti I Codec e Formati Audio Di Compressione
Tutti I Codec e Formati Video Di Compressione
Differenze Tra Compressione Lossy e Lossless: Vantaggi e Svantaggi
La Storia Di Jan Sloot e Il Misterioso Sloot Digital Coding System
Il Mistero Della Compressione Video I2BP: Idea Rivoluzionaria o Bluff? (2001)
Il Mistero Della Compressione Video I2BP: Idea Rivoluzionaria o Bluff? (2001)
Nel gennaio 2001 veniva etichettato come il formato video che avrebbe rivoluzionato Internet!
Stiamo parlando dell'I2BP gestito dalla Start-up "Atelier De L'Innovation".
Si parlava di "miracolo tecnologico": un nuovo formato di compressione video che avrebbe permesso di diffondere su Internet, a schermo intero, 25 immagini al secondo (25 FPS), con una qualità video simile a quella delle VHS (cioè diffondere tramite un modem a bassissime velocità, un video streaming dalla qualità di una VHS).
Secondo le descrizioni dei tempi, questa tecnologia avrebbe permesso lo streaming di un film formato DVD a piena risoluzione (con una connessione a 2 kb/s).
Tenendo conto del bitrate di 156 Mbit/s per un flusso DigitalVideo compresso (4: 2: 2, CCIR 601-2), il rapporto di compressione risultante era di 80.000 in tempo reale (50 volte più efficiente del formato d'elite dell'epoca ovvero il DivX. Per comprimere un film all'epoca ci voleva circa 1 ora).
Era un qualcosa che dire rivoluzionario è poco perchè se questo "miracolo" fosse stato possibile, a cosa sarebbero servite le ADSL e la Fibra Ottica?
Assolutamente a niente.
Inoltre avrebbe facilitato l'esplosione di Web TV, servizi di video in streaming e on demand.
Gli sviluppatori sostennero che il loro sistema di compressione video, simile al MPEG-2, non richiedeva particolari compromessi per quanto riguarda la perdita di qualità.
Che sia 28 K, 33 K, 56 K, ADSL, via cavo, via satellite o su GPRS e cellulari UMTS, il loro formato avrebbe superato qualsiasi Streaming esistente.
Video in 320 x 240, a soli 4 kb/s per una qualità vicina a quella del VHS.
Lo stesso tasso (4 kb/s) per video sui cellulari GPRS.
56 kb/s, via cavo o via satellite, per qualità DVD.
A bassa velocità, GSM, la tecnologia avrebbe permesso di trasmettere un clip audio "udibile" solo ad 1 kb/s.
La dimostrazione venne eseguita trasferendo dal PC desktop di Marc-Eric Gervais, capo della I2BP, una serie di file Streaming sul server della Start-up (in una rete locale, intranet).
La qualità fu davvero sorprendente, sia per l'immagine che per il suono.
L'algoritmo di compressione rimase ovviamente un segreto gelosamente custodito.
Molti, nella dimostrazione, sospettarono che si trattasse di un imbroglio (perchè non ci fu la possibilità di controllare i parametri di trasmissione del video streaming) ma la situazione non fu mai chiarita del tutto.
Una successiva dimostrazione online di questa tecnologia, inizialmente prevista per aprile 2001, venne rinviata ad una data non specificata.
Inoltre, da allora, non ci furono più notizie.
LE STRANEZZE E LA TECNOLOGIA ALIENA
Tra programmazione del software (o di quello che era) in Java e formati .exe, Gervais disse anche che il video in streaming dopo la compressione "pesava" solo 50 bytes.
Lo stesso disse di aver preferito il formato MPEG-2 per una migliore qualità dell'immagine.
MPEG-4 usa un algoritmo di compressione Wavelet (WDT).
Il WDT MPEG-4, più efficiente, offre una migliore qualità dell'immagine rispetto al formato MPEG-2 con un rapporto di compressione più elevato.
In ultima analisi, avrebbero scelto la strada sbagliata...per ottenere risultati eccezionali.
Christophe Bernard, ricercatore della Ecole Des Mines di Parigi e specialista di compressione video: "Completamente delirante! Migliorare la compressione di un fattore 3 o 4, sarebbe fantastico.
Ma, se ci atteniamo ad una velocità di 2 kb/s con 25 fotogrammi al secondo, si ottiene una qualità 50 volte meglio di un DivX!, questo sarebbe l'equivalente di memorizzare un'immagine di 80 byte e ciò non ha senso"
"Per raggiungere tale tasso di compressione elevato, utilizzare certi algoritmi richiede grande capacità di elaborazione. Inoltre, si devono quindi risolvere i problemi di trasporto e sincronizzazione dei dati sulla rete. Questo problema tecnico è peggio che la quadratura del cerchio!" spiega Jean-Noël Gazain,
L'immagine visualizzata a schermo intero su un computer è composta da un insieme di pixel, codificati per trascrivere la crominanza (colore), saturazione e luminanza.
La memorizzazione di un secondo di film (25 immagini) visualizzato a schermo intero memorizza 2,88 milioni di byte.
Per trasmettere il film a 25 fotogrammi al secondo con una larghezza di banda di 2,5 Kb/s, la dimensione I2BP avrebbe dovuto raggiungere un rapporto di compressione di 1125/1.
Per confronto, il rapporto di compressione MPEG-1 di qualità VHS sale a 30/1.
DivX, che è un MPEG-4 migliorato, raggiunge livelli compresi tra 60/1 e 100/1.
Ai tempi (primi anni del 2000), solo la compressione frattale (un'immagine realizzata da formule matematiche) raggiungeva un tasso di 1000/1 sulle immagini fisse e 400 a 500/1 in un video.
Tuttavia, questi valori erano solo teorici perché non c'erano computer abbastanza potenti per eseguire tali operazioni.
LOSSY, LOSSLESS E LOSSLESS RECURSIVE COMPRESSION
Oltre a questo fantomatico formato, nel corso degli anni, sono state inventate la compressione "Lossy" (con perdita di informazione quindi deterioramento del file originario) e "LossLess" (compressione senza perdita di dati ed informazione quindi il file rimane così com'è).
Un' "invenzione" mai dimostrata ma molto particolare è stato la "Lossless Recursive Compression Of Random Data".
Generalmente con questo termine, ci si riferisce alla compressione di files già compressi, utilizzando tecniche particolari.
ALTRI ARTICOLI
Tutti I Codec e Formati Audio Di Compressione
Tutti I Codec e Formati Video Di Compressione
Differenze Tra Compressione Lossy e Lossless: Vantaggi e Svantaggi
E' Possibile La "Lossless Recursive Compression Of Random Data"?
La Storia Di Jan Sloot e Il Misterioso Sloot Digital Coding System
Stiamo parlando dell'I2BP gestito dalla Start-up "Atelier De L'Innovation".
Si parlava di "miracolo tecnologico": un nuovo formato di compressione video che avrebbe permesso di diffondere su Internet, a schermo intero, 25 immagini al secondo (25 FPS), con una qualità video simile a quella delle VHS (cioè diffondere tramite un modem a bassissime velocità, un video streaming dalla qualità di una VHS).
Secondo le descrizioni dei tempi, questa tecnologia avrebbe permesso lo streaming di un film formato DVD a piena risoluzione (con una connessione a 2 kb/s).
Tenendo conto del bitrate di 156 Mbit/s per un flusso DigitalVideo compresso (4: 2: 2, CCIR 601-2), il rapporto di compressione risultante era di 80.000 in tempo reale (50 volte più efficiente del formato d'elite dell'epoca ovvero il DivX. Per comprimere un film all'epoca ci voleva circa 1 ora).
Era un qualcosa che dire rivoluzionario è poco perchè se questo "miracolo" fosse stato possibile, a cosa sarebbero servite le ADSL e la Fibra Ottica?
Assolutamente a niente.
Inoltre avrebbe facilitato l'esplosione di Web TV, servizi di video in streaming e on demand.
Gli sviluppatori sostennero che il loro sistema di compressione video, simile al MPEG-2, non richiedeva particolari compromessi per quanto riguarda la perdita di qualità.
Che sia 28 K, 33 K, 56 K, ADSL, via cavo, via satellite o su GPRS e cellulari UMTS, il loro formato avrebbe superato qualsiasi Streaming esistente.
Video in 320 x 240, a soli 4 kb/s per una qualità vicina a quella del VHS.
Lo stesso tasso (4 kb/s) per video sui cellulari GPRS.
56 kb/s, via cavo o via satellite, per qualità DVD.
A bassa velocità, GSM, la tecnologia avrebbe permesso di trasmettere un clip audio "udibile" solo ad 1 kb/s.
La dimostrazione venne eseguita trasferendo dal PC desktop di Marc-Eric Gervais, capo della I2BP, una serie di file Streaming sul server della Start-up (in una rete locale, intranet).
La qualità fu davvero sorprendente, sia per l'immagine che per il suono.
L'algoritmo di compressione rimase ovviamente un segreto gelosamente custodito.
Molti, nella dimostrazione, sospettarono che si trattasse di un imbroglio (perchè non ci fu la possibilità di controllare i parametri di trasmissione del video streaming) ma la situazione non fu mai chiarita del tutto.
Una successiva dimostrazione online di questa tecnologia, inizialmente prevista per aprile 2001, venne rinviata ad una data non specificata.
Inoltre, da allora, non ci furono più notizie.
LE STRANEZZE E LA TECNOLOGIA ALIENA
Tra programmazione del software (o di quello che era) in Java e formati .exe, Gervais disse anche che il video in streaming dopo la compressione "pesava" solo 50 bytes.
Lo stesso disse di aver preferito il formato MPEG-2 per una migliore qualità dell'immagine.
MPEG-4 usa un algoritmo di compressione Wavelet (WDT).
Il WDT MPEG-4, più efficiente, offre una migliore qualità dell'immagine rispetto al formato MPEG-2 con un rapporto di compressione più elevato.
In ultima analisi, avrebbero scelto la strada sbagliata...per ottenere risultati eccezionali.
Christophe Bernard, ricercatore della Ecole Des Mines di Parigi e specialista di compressione video: "Completamente delirante! Migliorare la compressione di un fattore 3 o 4, sarebbe fantastico.
Ma, se ci atteniamo ad una velocità di 2 kb/s con 25 fotogrammi al secondo, si ottiene una qualità 50 volte meglio di un DivX!, questo sarebbe l'equivalente di memorizzare un'immagine di 80 byte e ciò non ha senso"
"Per raggiungere tale tasso di compressione elevato, utilizzare certi algoritmi richiede grande capacità di elaborazione. Inoltre, si devono quindi risolvere i problemi di trasporto e sincronizzazione dei dati sulla rete. Questo problema tecnico è peggio che la quadratura del cerchio!" spiega Jean-Noël Gazain,
L'immagine visualizzata a schermo intero su un computer è composta da un insieme di pixel, codificati per trascrivere la crominanza (colore), saturazione e luminanza.
La memorizzazione di un secondo di film (25 immagini) visualizzato a schermo intero memorizza 2,88 milioni di byte.
Per trasmettere il film a 25 fotogrammi al secondo con una larghezza di banda di 2,5 Kb/s, la dimensione I2BP avrebbe dovuto raggiungere un rapporto di compressione di 1125/1.
Per confronto, il rapporto di compressione MPEG-1 di qualità VHS sale a 30/1.
DivX, che è un MPEG-4 migliorato, raggiunge livelli compresi tra 60/1 e 100/1.
Ai tempi (primi anni del 2000), solo la compressione frattale (un'immagine realizzata da formule matematiche) raggiungeva un tasso di 1000/1 sulle immagini fisse e 400 a 500/1 in un video.
Tuttavia, questi valori erano solo teorici perché non c'erano computer abbastanza potenti per eseguire tali operazioni.
LOSSY, LOSSLESS E LOSSLESS RECURSIVE COMPRESSION
Oltre a questo fantomatico formato, nel corso degli anni, sono state inventate la compressione "Lossy" (con perdita di informazione quindi deterioramento del file originario) e "LossLess" (compressione senza perdita di dati ed informazione quindi il file rimane così com'è).
Un' "invenzione" mai dimostrata ma molto particolare è stato la "Lossless Recursive Compression Of Random Data".
Generalmente con questo termine, ci si riferisce alla compressione di files già compressi, utilizzando tecniche particolari.
ALTRI ARTICOLI
Tutti I Codec e Formati Audio Di Compressione
Tutti I Codec e Formati Video Di Compressione
Differenze Tra Compressione Lossy e Lossless: Vantaggi e Svantaggi
E' Possibile La "Lossless Recursive Compression Of Random Data"?
La Storia Di Jan Sloot e Il Misterioso Sloot Digital Coding System
Differenze Tra Compressione Lossy e Lossless: Vantaggi e Svantaggi
La compressione audio permette di ridurre le dimensioni di un file audio.
La struttura fisica di un CD e la memorizzazione dei dati è descritta nel Red Book, redatto da Sony e Philips nel 1980, anno in cui cominciò la vendita dei CD.
La capacità standard per un CD Audio è di 747 MB, tuttavia le tracce salvate sul CD sono in formato .CDA (pesanti pochi byte perchè in realtà non contengono la traccia in sè ma soltanto riferimenti sulla durata della traccia audio vera e propria contenente la codifica digitale del file audio).
Un codec è un programma invece che si occupa di codificare e decodificare digitalmente un segnale (tipicamente audio o video) perché possa essere salvato su un supporto di memorizzazione o richiamato per la sua lettura.
I codec effettuano anche una compressione (e decompressione in lettura) dei dati ad esso relativi, in modo da poter ridurre lo spazio di memorizzazione occupato a vantaggio dell'usabilità dell'audio/video.
Per realizzare una compressione si fa ricorso alla riduzione delle frequenze da riprodurre (in alcuni codec audio vengono soppresse le frequenze non udibili dall’orecchio umano) o alla eliminazione delle ridondanze.
In primo luogo la compressione, oltre a ridurre lo spazio per l'archiviazione del file, aumenta anche la velocità di trasferimento ovviamente.
I difetti di sistemi di questo tipo sono maggiore difficoltà di lettura/scrittura dei files e generalmente una diminuzione della qualità dell'audio.
BITRATE
Riguardo i formati audio, ad ogni secondo è associato un certo contenuto informativo e quindi una certa sottosequenza di cifre binarie.
Il numero di cifre binarie che compongono queste sottosequenze è detto bitrate (cifre binarie impiegate per immagazzinare un secondo di informazione).
Questo può essere costante per tutta la durata del file o variare all’interno di esso.
Il bitrate si esprime in kilobit per secondo (kbps) e varia da 32kbps (il minimo) a 320kbps (il massimo).
La compressione, diminuendo la lunghezza globale del file, diminuirà di conseguenza la lunghezza media delle sottosequenze ossia diminuirà il bitrate medio.
Il bitrate medio diventa dunque in questi casi l’indice dell’entità della compressione.
Ad esempio se il file di origine possedesse un bitrate di 256 Kbps e il file compresso possedesse un bitrate medio di 128 Kbps, allora avremmo ridotto di un fattore pari a 2.
CBR (Costant BitRate) il bitrate rimane costante in ogni frame e questo significa che l’encoder utilizzerà sempre la stessa quantità di bit per codificare ogni passaggio musicale.
In pratica i passaggi più complessi avranno una qualità inferiore di quelli semplici visto che saranno codificati con un numero sempre uguale di bit, mentre ne servirebbero di più per i passaggi complessi e di meno per quelli semplici.
L'ABR (Average BitRate) è una modalità che ha una resa superiore al CBR e consiste in una sorta di bitrate “variabile”.
L’encoder codificherà i passaggi che lo necessitano con più bit e quelli più semplici con meno, cercando di mantenere nell’intero file il bitrate medio impostato.
Infine il VBR (Variable BitRate) è una modalità dove c’è un bitrate realmente variabile.
Impostando un indice di qualità e un bitrate massimo e minimo l’encoder codificherà ogni frame utilizzando il bitrate più appropriato (il bitrate aumenta/diminuisce a seconda della "complessità" della musica).
TIPI DI COMPRESSIONE
I tipi di compressione sono sostanzialmente due: algoritmi Lossless e Lossy.
Come suggerisce il nome, la compressione Lossless conserva i dati originali in modo da poterne riottenere una copia esatta, mentre la compressione Lossy provoca alcuni cambiamenti rispetto ai dati originali.
Una compressione Lossy effettua un compromesso fra la perdita d’informazione e la dimensione del file finale, mentre una Lossless deve bilanciare la dimensione del file finale con i tempi di esecuzione dell’algoritmo.
COMPRESSIONE LOSSLESS
La compressione Lossless indica un algoritmo che conserva integralmente, attraverso le varie fasi di compressione/decompressione, tutte le informazioni originarie del file sorgente.
Gli algoritmi più famosi che fanno uso di tecniche "Lossless" sono, la codifica di Huffman e l'algoritmo LZW (Lempel-Ziv-Welch) utilizzato nella compressione di file GIF.
L'efficienza di questi algoritmi si aggira solitamente attorno a rapporti di compressione dell'ordine del 70% al massimo, ovvero i dati compressi occuperanno il 30% della lunghezza originale.
Concludendo, possiamo dire che la compressione Lossless è comunemente usata per la compressione di dati, quali applicazioni eseguibili, testo o database, che devono essere ripristinati nello stato originale.
E per l'audio? I formati Lossless cercano di diminuire lo spazio occupato dalla traccia senza andare a toccare il suono; la % di compressione sarà decisamente inferiore rispetto ai Lossy, ma non ci sarà perdita di qualità.
Se riconvertito partendo dal formato Lossless, il suono sarà identico a prima.
Se ho un file Lossless posso passare ad un Lossy perdendo qualche informazione (in base al tipo di file) e guadagnando spazio.
Tra i principali formati Lossless abbiamo: WAV (o WAVE), FLAC (Free Lossless Audio Codec), APE (Monkey Audio), LA (Lossless Audio).
COMPRESSIONE LOSSY
Per comprimere dati come il suono o le immagini, dove una perdita di qualità potrebbe non essere notata viene usata la compressione Lossy.
Gli algoritmi di compressione Lossy quindi, sacrificano parte dei dettagli contenuti, ad esempio in un'immagine, in favore di un maggiore rapporto di compressione.
L'immagine ricostruita decomprimendo il file inganna l'occhio, ma contiene notevoli differenze (impercettibili però).
Da alcuni studi sull'occhio, si è stabilito che quest'ultimo non è in grado di distinguere due immagini in bianco e nero che abbiano, la prima profondità 6 (64 grigi) e la seconda profondità 8 (256 grigi).
Un altro tipo di differenza non riscontrabile riguarda la luminosità e il colore di un pixel, è stato dimostrato che l'occhio umano è molto più sensibile alla luminosità.
Solitamente, a causa del degrado introdotto nell'immagine alla stima dell'efficienza di un algoritmo "Lossy" si associa anche una stima di questo degrado.
In particolare ciò si nota con l'algoritmo JPEG che permette di stabilire anche la qualità finale dell'immagine.
Ed è proprio JPEG il primo vero standard che ha introdotto una codifica Lossy delle immagini.
Salvando una foto in un formato "pesante" (tipo una .Bitmap o .RAW) potremmo trovarci con una foto di 20 MB per giochi di luce e colori non apprezzati dall'occhio umano (senza considerare i problemi nel dover caricare ad esempio 5-6 di queste foto su un social network).
Per l'audio vale lo stesso discorso: verranno eliminate frequenze impercettibili ovvero le alte frequenze (a meno di non avere impianti sonori d'avanguardia).
La Lossy permette compressioni maggiori rispetto alla Lossless, ma a scapito della qualità sonora come si sarà capito
La riconversione, partendo dai formati Lossy, non permette di riportare la traccia audio al livello di qualità originale.
E questo in quanto non consente di ripristinare le frequenze “tagliate”.
In realtà esistono software che permettono di ripristinare alcune di queste alte frequenze, ma logicamente più di tanto non è possibile fare.
Ecco perchè non ha senso provare ad aumentare la qualità sonora di un mp3 (un 128 Kbps di Bitrate portato a 320, vedrebbe aumentare solo la sua dimensione, non certo la qualità dell'audio).
Detto in parole povere un Lossy non potrà mai diventare un LossLess: i dati persi sono persi, irrimediabilmente.
Principali formati Lossy: Mp3, WMA (Windows Media Audio), OGG (Vorbis), AAC (Advanced Audio Coding), AC3 (Dolby Digital).
ALTRI ARTICOLI
Tutti I Codec e Formati Audio Di Compressione
Tutti I Codec e Formati Video Di Compressione
E' Possibile La "Lossless Recursive Compression Of Random Data"?
La Storia Di Jan Sloot e Il Misterioso Sloot Digital Coding System
Il Mistero Della Compressione Video I2BP: Idea Rivoluzionaria o Bluff? (2001)
La struttura fisica di un CD e la memorizzazione dei dati è descritta nel Red Book, redatto da Sony e Philips nel 1980, anno in cui cominciò la vendita dei CD.
La capacità standard per un CD Audio è di 747 MB, tuttavia le tracce salvate sul CD sono in formato .CDA (pesanti pochi byte perchè in realtà non contengono la traccia in sè ma soltanto riferimenti sulla durata della traccia audio vera e propria contenente la codifica digitale del file audio).
Un codec è un programma invece che si occupa di codificare e decodificare digitalmente un segnale (tipicamente audio o video) perché possa essere salvato su un supporto di memorizzazione o richiamato per la sua lettura.
I codec effettuano anche una compressione (e decompressione in lettura) dei dati ad esso relativi, in modo da poter ridurre lo spazio di memorizzazione occupato a vantaggio dell'usabilità dell'audio/video.
Per realizzare una compressione si fa ricorso alla riduzione delle frequenze da riprodurre (in alcuni codec audio vengono soppresse le frequenze non udibili dall’orecchio umano) o alla eliminazione delle ridondanze.
In primo luogo la compressione, oltre a ridurre lo spazio per l'archiviazione del file, aumenta anche la velocità di trasferimento ovviamente.
I difetti di sistemi di questo tipo sono maggiore difficoltà di lettura/scrittura dei files e generalmente una diminuzione della qualità dell'audio.
BITRATE
Riguardo i formati audio, ad ogni secondo è associato un certo contenuto informativo e quindi una certa sottosequenza di cifre binarie.
Il numero di cifre binarie che compongono queste sottosequenze è detto bitrate (cifre binarie impiegate per immagazzinare un secondo di informazione).
Questo può essere costante per tutta la durata del file o variare all’interno di esso.
Il bitrate si esprime in kilobit per secondo (kbps) e varia da 32kbps (il minimo) a 320kbps (il massimo).
La compressione, diminuendo la lunghezza globale del file, diminuirà di conseguenza la lunghezza media delle sottosequenze ossia diminuirà il bitrate medio.
Il bitrate medio diventa dunque in questi casi l’indice dell’entità della compressione.
Ad esempio se il file di origine possedesse un bitrate di 256 Kbps e il file compresso possedesse un bitrate medio di 128 Kbps, allora avremmo ridotto di un fattore pari a 2.
CBR (Costant BitRate) il bitrate rimane costante in ogni frame e questo significa che l’encoder utilizzerà sempre la stessa quantità di bit per codificare ogni passaggio musicale.
In pratica i passaggi più complessi avranno una qualità inferiore di quelli semplici visto che saranno codificati con un numero sempre uguale di bit, mentre ne servirebbero di più per i passaggi complessi e di meno per quelli semplici.
L'ABR (Average BitRate) è una modalità che ha una resa superiore al CBR e consiste in una sorta di bitrate “variabile”.
L’encoder codificherà i passaggi che lo necessitano con più bit e quelli più semplici con meno, cercando di mantenere nell’intero file il bitrate medio impostato.
Infine il VBR (Variable BitRate) è una modalità dove c’è un bitrate realmente variabile.
Impostando un indice di qualità e un bitrate massimo e minimo l’encoder codificherà ogni frame utilizzando il bitrate più appropriato (il bitrate aumenta/diminuisce a seconda della "complessità" della musica).
TIPI DI COMPRESSIONE
I tipi di compressione sono sostanzialmente due: algoritmi Lossless e Lossy.
Come suggerisce il nome, la compressione Lossless conserva i dati originali in modo da poterne riottenere una copia esatta, mentre la compressione Lossy provoca alcuni cambiamenti rispetto ai dati originali.
Una compressione Lossy effettua un compromesso fra la perdita d’informazione e la dimensione del file finale, mentre una Lossless deve bilanciare la dimensione del file finale con i tempi di esecuzione dell’algoritmo.
COMPRESSIONE LOSSLESS
La compressione Lossless indica un algoritmo che conserva integralmente, attraverso le varie fasi di compressione/decompressione, tutte le informazioni originarie del file sorgente.
Gli algoritmi più famosi che fanno uso di tecniche "Lossless" sono, la codifica di Huffman e l'algoritmo LZW (Lempel-Ziv-Welch) utilizzato nella compressione di file GIF.
L'efficienza di questi algoritmi si aggira solitamente attorno a rapporti di compressione dell'ordine del 70% al massimo, ovvero i dati compressi occuperanno il 30% della lunghezza originale.
Concludendo, possiamo dire che la compressione Lossless è comunemente usata per la compressione di dati, quali applicazioni eseguibili, testo o database, che devono essere ripristinati nello stato originale.
E per l'audio? I formati Lossless cercano di diminuire lo spazio occupato dalla traccia senza andare a toccare il suono; la % di compressione sarà decisamente inferiore rispetto ai Lossy, ma non ci sarà perdita di qualità.
Se riconvertito partendo dal formato Lossless, il suono sarà identico a prima.
Se ho un file Lossless posso passare ad un Lossy perdendo qualche informazione (in base al tipo di file) e guadagnando spazio.
Tra i principali formati Lossless abbiamo: WAV (o WAVE), FLAC (Free Lossless Audio Codec), APE (Monkey Audio), LA (Lossless Audio).
COMPRESSIONE LOSSY
Per comprimere dati come il suono o le immagini, dove una perdita di qualità potrebbe non essere notata viene usata la compressione Lossy.
Gli algoritmi di compressione Lossy quindi, sacrificano parte dei dettagli contenuti, ad esempio in un'immagine, in favore di un maggiore rapporto di compressione.
L'immagine ricostruita decomprimendo il file inganna l'occhio, ma contiene notevoli differenze (impercettibili però).
Da alcuni studi sull'occhio, si è stabilito che quest'ultimo non è in grado di distinguere due immagini in bianco e nero che abbiano, la prima profondità 6 (64 grigi) e la seconda profondità 8 (256 grigi).
Un altro tipo di differenza non riscontrabile riguarda la luminosità e il colore di un pixel, è stato dimostrato che l'occhio umano è molto più sensibile alla luminosità.
Solitamente, a causa del degrado introdotto nell'immagine alla stima dell'efficienza di un algoritmo "Lossy" si associa anche una stima di questo degrado.
In particolare ciò si nota con l'algoritmo JPEG che permette di stabilire anche la qualità finale dell'immagine.
Ed è proprio JPEG il primo vero standard che ha introdotto una codifica Lossy delle immagini.
Salvando una foto in un formato "pesante" (tipo una .Bitmap o .RAW) potremmo trovarci con una foto di 20 MB per giochi di luce e colori non apprezzati dall'occhio umano (senza considerare i problemi nel dover caricare ad esempio 5-6 di queste foto su un social network).
Per l'audio vale lo stesso discorso: verranno eliminate frequenze impercettibili ovvero le alte frequenze (a meno di non avere impianti sonori d'avanguardia).
La Lossy permette compressioni maggiori rispetto alla Lossless, ma a scapito della qualità sonora come si sarà capito
La riconversione, partendo dai formati Lossy, non permette di riportare la traccia audio al livello di qualità originale.
E questo in quanto non consente di ripristinare le frequenze “tagliate”.
In realtà esistono software che permettono di ripristinare alcune di queste alte frequenze, ma logicamente più di tanto non è possibile fare.
Ecco perchè non ha senso provare ad aumentare la qualità sonora di un mp3 (un 128 Kbps di Bitrate portato a 320, vedrebbe aumentare solo la sua dimensione, non certo la qualità dell'audio).
Detto in parole povere un Lossy non potrà mai diventare un LossLess: i dati persi sono persi, irrimediabilmente.
Principali formati Lossy: Mp3, WMA (Windows Media Audio), OGG (Vorbis), AAC (Advanced Audio Coding), AC3 (Dolby Digital).
ALTRI ARTICOLI
Tutti I Codec e Formati Audio Di Compressione
Tutti I Codec e Formati Video Di Compressione
E' Possibile La "Lossless Recursive Compression Of Random Data"?
La Storia Di Jan Sloot e Il Misterioso Sloot Digital Coding System
Il Mistero Della Compressione Video I2BP: Idea Rivoluzionaria o Bluff? (2001)
domenica 18 settembre 2016
Cos'è LeakedSource? Sapere Se Un Proprio Account Mail è Stato Hackerato
Non solo, pagando, risulta anche abbastanza utile.
Ma di cosa si tratta? Di un sito con milioni di account hackerati.
Ogni record contiene un indirizzo email, un nome utente, a volte una seconda e-mail e una password visibile.
Ma attenzione LeakedSource non c'entra niente, loro ti segnalano appunto se il tuo account è stato violato o meno (basta inserire il proprio indirizzo mail).
Esso permette non solo di sapere se il tuo account è stato compromesso ma anche di sapere quale password viene usata (quindi se è la stessa che usate voi) ma solo pagando (per evitare che qualcuno veda password in chiaro degli altri).
Certo, l'utilità di sapere se la password utilizzata è giusta o meno, non ha molta importanza perchè come prima cosa se il vostro account è stato compromesso da Malware o fa parte di una Botner converrebbe appunto cambiare la password.
Ovviamente il pagamento per accedere al servizio usa sistemi molto sofisticati con carte di credito tracciabili quindi l'Hacker di turno non potrebbe spacciarsi per voi.
Ed anche nel caso ci riuscisse sarebbe più o meno facilmente identificato e quindi arrestato.
Arriva Il Primo Robot A Basso Costo: R1 (Your Personal Humanoid)
In un articolo pubblicato sul mensile Scientific American a fine anni 80, Bill Gates, il fondatore della Microsoft aveva previsto che nell’arco di 25 anni in ogni casa sarebbe entrato un robot.
Forse siamo ancora lontani da ciò ma "R1-Your Personal Humanoid" potremmo considerarlo il primo robot sviluppato a basso costo, concepito appunto per raggiungere le masse.
Robot italiano sviluppato dall'Istituto Italiano di Tecnologia (Iit), polo genovese d'eccellenza in Italia e nel mondo.
Altezza variabile di 20 cm a partire da 1 metro e 25 cm, peso di 50 kg, 50% in plastica e 50% fibra di carbonio e metallo.
R1 ci aiuterà nelle faccende domestiche, al lavoro, in hotel dietro il banco della reception o in ospedale in aiuto del caposala nella gestione di cartelle e dati.
In poco tempo sarà in grado di muoversi in autonomia, riconoscendo ambienti, volti e voci e compiendo azioni al posto nostro.
Come fare un caffè o spostare un oggetto al posto nostro, senza farci alzare dal divano.
CARATTERISTICHE
Le mani e gli avambracci di R1 sono rivestiti di una pelle artificiale, con sensori che conferiscono al robot il senso del tatto, permettendogli di "sentire" l'interazione con gli oggetti che manipola.
Il disegno delle mani garantisce robustezza, consentendo l'esecuzione di semplici operazioni domestiche.
Hanno la forma di due guanti a manopola e il polso è sferico, aspetti che gli permettono di sollevare pesi fino a 1,5 kg e chiudere completamente la presa attorno a ciò che afferra, specialmente oggetti cilindrici come bicchieri e bottiglie.
Le braccia sono, per altro, allungabili.
Presenti 28 motori per il movimento.
Non ha airbag, ma una frizione che evita danni al padrone umano frenandolo prima di un eventuale impatto.
Il volto è uno schermo LED a colori su cui compaiono delle espressioni stilizzate.
All'interno, invece, lo schermo ospita due telecamere e uno scanner 3D e poi particolari sensori per l'equilibrio, per la generazione e percezione del suono.
Nel corpo, invece, trovano posto tre computer che governano le capacità del robot, dal calcolo al movimento della testa, sino al controllo di tutti i sensori.
Una scheda wireless permette al robot di collegarsi alla rete internet, ricavando informazioni utili all'interazione con l'uomo e gli aggiornamenti del software.
E, soprattutto, sa prendere decisioni e risolvere problemi perché è intelligente.
Viene, infatti, equipaggiato con un sistema di Intelligenza Artificiale (“Cognitive Computing” ed “Embedded Cognition”, cioè l’idea, supportata dalle evidenze neuroscientifiche, che la cognizione, anche la più astratta e simbolica, non sia indipendente dal corpo che la implementa).
L'Autonomia, per il momento, è di circa 3 ore.
R1 potremmo considerarlo il successore di iCub: l'umanoide costruito per gli studi sull'intelligenza artificiale, oggi presente in tutto il mondo con 30 prototipi.
Rispetto a lui e agli altri umanoidi in circolazione, però, le differenze sono tante come spiega Giorgio Metta (responsabile del progetto):
"iCub è un prodotto di ricerca in cui il prezzo non era importante. R1 invece è un tentativo di approcciare il mercato di massa in cui il prezzo diventa questione fondamentale.
''Per i primi 100 prototipi abbiamo individuato un target di prezzo che si aggira sui 25mila euro. Superata questa soglia, il prezzo inizierà a scendere e continuerà a calare man mano che diventerà un prodotto di consumo. La fascia, più o meno finale, di prezzo sarà di 3mila euro, quanto il costo di un moderno televisore al plasma''
TEAM DI SVILUPPO
Coordinatore e ideatore: Giorgio Metta, 46 anni
Meccanici: Alberto Parmiggiani, 34 anni (team leader); Luca Fiorio, 32 anni; Anand Vazhapilli Sureshbabu, 28 anni; Lorenzo Orciari, 34 anni; Filippo Biggi, 43 anni; Andrea Della Patria, 43 anni; Jennifer Chang, 22 anni.
Elettronici: Marco Maggiali, 36 anni (team leader); Simeone Dussoni, 39 anni; Andrea Mura, 40 anni; Giorgio Zini, 57 anni; Claudio Lorini, 47 anni; Francesco Diotalevi, 46 anni.
Software: Lorenzo Natale, 41 anni (team leader), Alessandro Scalzo 46 anni; Ugo Pattacini 39 anni; Marco Randazzo 35 anni, Daniele Domenichelli, 37 anni; Alberto Cardellino, 34 anni; Davide Pollarolo, 27 anni; Matteo Brunettini 41 anni.
Concept Strategico e Creativo: Andrea Pagnin, 44 (team leader) e Luigi Focanti, 44 (Creative Director)
Concept e sviluppo industrial design: Pierpaolo Congiu 40, (Industrial Design Director)
ALTRI ARTICOLI
Droni e Robot
Tasto Rosso Per Disattivare Robot Pericolosi
Il Robot Pericoloso Che Viola Le Leggi Robotiche Di Asimov
Forse siamo ancora lontani da ciò ma "R1-Your Personal Humanoid" potremmo considerarlo il primo robot sviluppato a basso costo, concepito appunto per raggiungere le masse.
Robot italiano sviluppato dall'Istituto Italiano di Tecnologia (Iit), polo genovese d'eccellenza in Italia e nel mondo.
Altezza variabile di 20 cm a partire da 1 metro e 25 cm, peso di 50 kg, 50% in plastica e 50% fibra di carbonio e metallo.
R1 ci aiuterà nelle faccende domestiche, al lavoro, in hotel dietro il banco della reception o in ospedale in aiuto del caposala nella gestione di cartelle e dati.
In poco tempo sarà in grado di muoversi in autonomia, riconoscendo ambienti, volti e voci e compiendo azioni al posto nostro.
Come fare un caffè o spostare un oggetto al posto nostro, senza farci alzare dal divano.
CARATTERISTICHE
Le mani e gli avambracci di R1 sono rivestiti di una pelle artificiale, con sensori che conferiscono al robot il senso del tatto, permettendogli di "sentire" l'interazione con gli oggetti che manipola.
Il disegno delle mani garantisce robustezza, consentendo l'esecuzione di semplici operazioni domestiche.
Hanno la forma di due guanti a manopola e il polso è sferico, aspetti che gli permettono di sollevare pesi fino a 1,5 kg e chiudere completamente la presa attorno a ciò che afferra, specialmente oggetti cilindrici come bicchieri e bottiglie.
Le braccia sono, per altro, allungabili.
Presenti 28 motori per il movimento.
Non ha airbag, ma una frizione che evita danni al padrone umano frenandolo prima di un eventuale impatto.
Il volto è uno schermo LED a colori su cui compaiono delle espressioni stilizzate.
All'interno, invece, lo schermo ospita due telecamere e uno scanner 3D e poi particolari sensori per l'equilibrio, per la generazione e percezione del suono.
Nel corpo, invece, trovano posto tre computer che governano le capacità del robot, dal calcolo al movimento della testa, sino al controllo di tutti i sensori.
Una scheda wireless permette al robot di collegarsi alla rete internet, ricavando informazioni utili all'interazione con l'uomo e gli aggiornamenti del software.
E, soprattutto, sa prendere decisioni e risolvere problemi perché è intelligente.
Viene, infatti, equipaggiato con un sistema di Intelligenza Artificiale (“Cognitive Computing” ed “Embedded Cognition”, cioè l’idea, supportata dalle evidenze neuroscientifiche, che la cognizione, anche la più astratta e simbolica, non sia indipendente dal corpo che la implementa).
L'Autonomia, per il momento, è di circa 3 ore.
R1 potremmo considerarlo il successore di iCub: l'umanoide costruito per gli studi sull'intelligenza artificiale, oggi presente in tutto il mondo con 30 prototipi.
Rispetto a lui e agli altri umanoidi in circolazione, però, le differenze sono tante come spiega Giorgio Metta (responsabile del progetto):
"iCub è un prodotto di ricerca in cui il prezzo non era importante. R1 invece è un tentativo di approcciare il mercato di massa in cui il prezzo diventa questione fondamentale.
''Per i primi 100 prototipi abbiamo individuato un target di prezzo che si aggira sui 25mila euro. Superata questa soglia, il prezzo inizierà a scendere e continuerà a calare man mano che diventerà un prodotto di consumo. La fascia, più o meno finale, di prezzo sarà di 3mila euro, quanto il costo di un moderno televisore al plasma''
TEAM DI SVILUPPO
Coordinatore e ideatore: Giorgio Metta, 46 anni
Meccanici: Alberto Parmiggiani, 34 anni (team leader); Luca Fiorio, 32 anni; Anand Vazhapilli Sureshbabu, 28 anni; Lorenzo Orciari, 34 anni; Filippo Biggi, 43 anni; Andrea Della Patria, 43 anni; Jennifer Chang, 22 anni.
Elettronici: Marco Maggiali, 36 anni (team leader); Simeone Dussoni, 39 anni; Andrea Mura, 40 anni; Giorgio Zini, 57 anni; Claudio Lorini, 47 anni; Francesco Diotalevi, 46 anni.
Software: Lorenzo Natale, 41 anni (team leader), Alessandro Scalzo 46 anni; Ugo Pattacini 39 anni; Marco Randazzo 35 anni, Daniele Domenichelli, 37 anni; Alberto Cardellino, 34 anni; Davide Pollarolo, 27 anni; Matteo Brunettini 41 anni.
Concept Strategico e Creativo: Andrea Pagnin, 44 (team leader) e Luigi Focanti, 44 (Creative Director)
Concept e sviluppo industrial design: Pierpaolo Congiu 40, (Industrial Design Director)
ALTRI ARTICOLI
Droni e Robot
Tasto Rosso Per Disattivare Robot Pericolosi
Il Robot Pericoloso Che Viola Le Leggi Robotiche Di Asimov
sabato 17 settembre 2016
Come Trovare e Catturare Facilmente Pokemon (Pokemon Go)
Come si sa, lo scopo di Pokemon Go, l’applicazione per dispositivi Android e iPhone sviluppata da Niantic, è di catturare tutti i Pokemon sfruttando le numerosissime potenzialità della realtà aumentata e di sfidare altri "Allenatori" nelle Palestre Pokémon di ciascun giocatore.
Scovare tutti i mostri è già di per sé un’impresa alquanto ardua, ma a questo spesso si aggiunge la difficoltà nel lanciare correttamente la Poke Ball addosso al Pokemon da catturare.
Quindi come catturare facilmente Pokemon?
C’è chi ha pensato a risolvere questo problema!
Si tratta di John Cleaver, uno studente australiano che si occupa di disegno industriale.
Egli ha progettato una custodia per iPhone stampata in 3D che darà modo, grazie al suo particolare design, di bloccare i lati e e rendere totalmente retta la traiettoria del dito.
In tal modo si potrà eseguire un lancio perfetto della Poke Ball che sarà indirizzato direttamente sul Pokemon bersagliato.
Per il progetto di Cleaver andate qui: Poke Ball Aimer (Download) realizzabile da chiunque sia in possesso di una stampante 3D.
Tale cover facilita i tiri per catturare i mostricciatoli e, al tempo stesso, assicura un buon punteggio, senza incorrere nel rischio di sprecare Poke ball preziose.
Attraverso l’applicazione della cover-mirino è possibile eseguire un lancio a effetto tracciando, con il dito sul display, la traiettoria che si intende affidare alla “Sfera Poké“.
Pertanto, il margine di errore viene quasi completamente eliminato e il numero dei Pokemon catturati raddoppia.
Al momento, la custodia risulta disponibile soltanto per iPhone 6 e 6S.
Tuttavia, il giovane universitario sarebbe pronto a creare nuove versioni compatibili con altri dispositivi.
“Questa custodia-mirino, stampabile in 3D, vi permette di assicurarvi di fare sempre un buon lancio. Basta semplicemente infilare il proprio smartphone nella cover, dopodiché catturare i Pokémon sarà molto più semplice“
Scovare tutti i mostri è già di per sé un’impresa alquanto ardua, ma a questo spesso si aggiunge la difficoltà nel lanciare correttamente la Poke Ball addosso al Pokemon da catturare.
Quindi come catturare facilmente Pokemon?
C’è chi ha pensato a risolvere questo problema!
Si tratta di John Cleaver, uno studente australiano che si occupa di disegno industriale.
Egli ha progettato una custodia per iPhone stampata in 3D che darà modo, grazie al suo particolare design, di bloccare i lati e e rendere totalmente retta la traiettoria del dito.
In tal modo si potrà eseguire un lancio perfetto della Poke Ball che sarà indirizzato direttamente sul Pokemon bersagliato.
Per il progetto di Cleaver andate qui: Poke Ball Aimer (Download) realizzabile da chiunque sia in possesso di una stampante 3D.
Tale cover facilita i tiri per catturare i mostricciatoli e, al tempo stesso, assicura un buon punteggio, senza incorrere nel rischio di sprecare Poke ball preziose.
Attraverso l’applicazione della cover-mirino è possibile eseguire un lancio a effetto tracciando, con il dito sul display, la traiettoria che si intende affidare alla “Sfera Poké“.
Pertanto, il margine di errore viene quasi completamente eliminato e il numero dei Pokemon catturati raddoppia.
Al momento, la custodia risulta disponibile soltanto per iPhone 6 e 6S.
Tuttavia, il giovane universitario sarebbe pronto a creare nuove versioni compatibili con altri dispositivi.
“Questa custodia-mirino, stampabile in 3D, vi permette di assicurarvi di fare sempre un buon lancio. Basta semplicemente infilare il proprio smartphone nella cover, dopodiché catturare i Pokémon sarà molto più semplice“