L'ipotesi ventilata dal Dipartimento di Giustizia americano è molto grave: si sta indagando sulla manipolazione del prezzo del Bitcoin da parte dei traders.
L’ipotesi di manipolazione, però, non riguarda soltanto il prezzo del Bitcoin ma anche quello delle altre criptovalute (Ethereum in primis).
L'accusa (penale) è quella di "spoofing", che viene a configurarsi nel momento in cui i traders inondano il mercato con falsi ordini per indurre gli altri partecipanti a moltiplicare acquisti e vendite, con l’obiettivo di gonfiare o far crollare i prezzi.
Altra attività illecita nel mirino è il cosiddetto “wash trading”, in cui un trader-truffatore compra e vende con se stesso per creare la falsa impressione che esista una domanda di mercato; questo attira gli investitori e manipola il prezzo.
L’ipotesi di manipolazione ha frenato il prezzo del Bitcoin che dopo la notizia è scivolato sulla soglia dei 7.400 dollari per poi continuare a perdere terreno nel corso delle giornate successive (ad oggi è sui 6.200 dollari).
La debolezza della quotazione non è rimasta confinata ma si è estesa anche al resto del comparto criptovalute con ribassi che hanno interessato tutte le principali quotazioni virtuali.
Il clima negativo e il prezzo al ribasso del Bitcoin sta probabilmente formando un "bearish flag pattern" che potrebbe in parte spiegare la continua pressione di vendita oggi evidente.
Non stanno certo aiutando neanche le decisioni dell’exchange Bithumb, che ha annunciato il prossimo stop del trading sulle Altcoin in almeno 11 Paesi citando rischi di riciclaggio di denaro e altre attività criminali (tra cui il terrorismo) legati all’utilizzo delle criptovalute.
A questo punto, verrebbe da dire che la debolezza è intrinseca nel meccanismo di funzionamento del sistema stesso (soggetto appunto a rialzi e ribassi, a seconda degli scambi sul mercato).
martedì 29 maggio 2018
I Bitcoin Finiscono Nella Dichiarazione Dei Redditi? Legge Per Aziende e Privati
Quello delle criptovalute elettroniche, è un settore che, tra luci e ombre, si sta diffondendo sempre più come una realtà in continua espansione.
Ormai da tempo si cercava di regolarizzare il tutto, Bitcoin e più in generale criptovalute, dovranno entrare nella dichiarazione dei redditi.
Infatti i possessori di criptovalute dovranno inserire le valute virtuali all'interno del quadro RW della propria dichiarazione dei redditi.
L'Agenzia delle Entrate ha affrontato due questioni che stavano sollevando una certa preoccupazione in vista delle imminenti scadenze dichiarative: la tassazione del capital gain (il guadagno realizzato con la differenza tra il prezzo d'acquisto e di vendita) derivante dalla cessione di Bitcoin e la gestione degli adempimenti richiesti dalla disciplina sul monitoraggio fiscale.
Secondo l'agenzia delle entrate, i Bitcoin devono essere trattati alla stregua di una valuta estera tradizionale.
In altre parole, applicando le stesse regole di tassazione per redditi diversi di natura finanziaria derivanti dalla cessione "a pronti" di valuta estera emessa da una Banca Centrale.
In base alla norma in vigore, infatti, i proventi da cessione a titolo oneroso di valuta derivante da depositi e conti correnti esteri assumono rilevanza fiscale se, nel periodo d'imposta, la giacenza media di tali depositi e conti correnti (calcolata utilizzando il cambio vigente all'inizio del periodo di riferimento) è superiore al controvalore di 51.645,69 euro per almeno sette giorni lavorativi consecutivi.
Applicato alle criptovalute, depositi e conti correnti corrispondono ai Wallet, mentre il tasso di cambio vigente all'inizio del periodo di riferimento, sulla base del quale effettuare il calcolo della giacenza media nel periodo d'imposta, corrisponde al rapporto di cambio tra valuta virtuale ed Euro, rilevato sul sito presso il quale l'investitore ha acquistato i bitcoin. La plusvalenza sarà conteggiata come differenza tra il prezzo di vendita e il costo di acquisto (al netto di eventuali minusvalenze scomputabili): il valore così calcolato dovrà essere dichiarato nel quadro RT del Modello Unico PF e tassato con imposta sostitutiva al 26%.
Tutto ciò per quanto riguarda le aziende e i negozi (quindi ricevere pagamenti in Bitcoin equivarrà a ricevere pagamenti in dollari o sterline).
L'investimento in Bitcoin verrà considerato come una normale attività finanziaria suscettibile di produrre redditi imponibili in Italia.
L'Agenzia chiarisce, infine, che il possesso di Bitcoin non genera alcun obbligo di versamento dell'imposta sul valore dei prodotti finanziari (Ivafe), in quanto il possesso di valuta virtuale non può essere assimilato a depositi e conti correnti di "natura bancaria".
Ormai da tempo si cercava di regolarizzare il tutto, Bitcoin e più in generale criptovalute, dovranno entrare nella dichiarazione dei redditi.
Infatti i possessori di criptovalute dovranno inserire le valute virtuali all'interno del quadro RW della propria dichiarazione dei redditi.
L'Agenzia delle Entrate ha affrontato due questioni che stavano sollevando una certa preoccupazione in vista delle imminenti scadenze dichiarative: la tassazione del capital gain (il guadagno realizzato con la differenza tra il prezzo d'acquisto e di vendita) derivante dalla cessione di Bitcoin e la gestione degli adempimenti richiesti dalla disciplina sul monitoraggio fiscale.
Secondo l'agenzia delle entrate, i Bitcoin devono essere trattati alla stregua di una valuta estera tradizionale.
In altre parole, applicando le stesse regole di tassazione per redditi diversi di natura finanziaria derivanti dalla cessione "a pronti" di valuta estera emessa da una Banca Centrale.
In base alla norma in vigore, infatti, i proventi da cessione a titolo oneroso di valuta derivante da depositi e conti correnti esteri assumono rilevanza fiscale se, nel periodo d'imposta, la giacenza media di tali depositi e conti correnti (calcolata utilizzando il cambio vigente all'inizio del periodo di riferimento) è superiore al controvalore di 51.645,69 euro per almeno sette giorni lavorativi consecutivi.
Applicato alle criptovalute, depositi e conti correnti corrispondono ai Wallet, mentre il tasso di cambio vigente all'inizio del periodo di riferimento, sulla base del quale effettuare il calcolo della giacenza media nel periodo d'imposta, corrisponde al rapporto di cambio tra valuta virtuale ed Euro, rilevato sul sito presso il quale l'investitore ha acquistato i bitcoin. La plusvalenza sarà conteggiata come differenza tra il prezzo di vendita e il costo di acquisto (al netto di eventuali minusvalenze scomputabili): il valore così calcolato dovrà essere dichiarato nel quadro RT del Modello Unico PF e tassato con imposta sostitutiva al 26%.
Tutto ciò per quanto riguarda le aziende e i negozi (quindi ricevere pagamenti in Bitcoin equivarrà a ricevere pagamenti in dollari o sterline).
L'investimento in Bitcoin verrà considerato come una normale attività finanziaria suscettibile di produrre redditi imponibili in Italia.
L'Agenzia chiarisce, infine, che il possesso di Bitcoin non genera alcun obbligo di versamento dell'imposta sul valore dei prodotti finanziari (Ivafe), in quanto il possesso di valuta virtuale non può essere assimilato a depositi e conti correnti di "natura bancaria".
Per i cittadini privati invece, si presuppone che il possesso di valute non equivalga ad attività di trading finalizzate all’ottenimento di plusvalenze, anche quando poi questo in realtà accade.
Anche se, come detto, c'è un limite.
Nel momento in cui infatti, durante il corso di un anno, per almeno 7 giorni consecutivi, si dovesse superare il limite di possesso di Bitcoin per un controvalore pari a 51.645,69 euro, allora l’Agenzia delle entrate considererebbe anche per il privato la sussistenza di un’attività speculativa chiedendo il pagamento delle tasse.
Anche in questo caso dunque, scatterebbe l’obbligo di dichiarazione delle plusvalenze, da inserire nel quadro RT del Modello Unico PF (persone fisiche), e su di esse verrebbe applicata un’aliquota pari sempre al 26%.
Hacker Arrestato Sul Deep Web, Truffa Di Bitcoin Anche In Sud Africa (BTC Global)
Ore calde nella blockchain dei Bitcoin, visto che sono state perpetrate diverse truffe colossali ai danni di ignari cittadini.
Nelle ultime ore infatti, un hacker inglese è stato incarcerato per 10 anni e otto mesi dopo essere stato riconosciuto colpevole di aver venduto 63.000 carte di credito e di debito rubate nel Deep Web.
La polizia ha sequestrato una quantità di Bitcoin del valore di oltre 600.000 dollari.
Si tratta di un 26 enne di nome Grant West, un hacker residente a Kent, Gran Bretagna.
L'uomo è riuscito a rubare i dati personali di circa 165.000 persone attraverso uno schema di “phishing”.
L’accusa ha dichiarato di aver tratto profitto per oltre 180.000 sterline (circa 205 mila euro) dalla truffa e di aver convertito i proventi in Bitcoin, che sarebbero poi stati archiviati in più account.
I fondi, che al momento della truffa erano 205 mila euro, dopo essere stati convertiti in Bitcoin, sono “cresciuti” diventando oltre 500 mila euro, grazie alla crescita del valore del Bitcoin.
West inviava e-mail fingendo di essere la catena "Just Eat", un' app (attiva anche in Italia) per effettuare ordini da ristoranti e bar, per estrarre i dettagli delle carte di credito e di debito dalle sue vittime.
Il criminale è stato condannato a quasi 11 anni di carcere per cospirazione, frode, uso improprio di computer e reati di droga.
Spostandoci invece in Sud Africa, la polizia sta indagando su una società che avrebbe truffato gli investitori per 1 miliardo di rand (68 milioni di dollari in Bitcoin) con promesse di enormi rendimenti che non si sono mai materializzati.
L’indagine sulle frodi coinvolge una società chiamata BTC Global, che ha detto ai clienti che avrebbero guadagnato il 2% al giorno, il 14% alla settimana e il 50% in un mese.
Una ricerca per l’azienda su Internet ha mostrato che i suoi servizi erano stati sospesi.
"Si ritiene che i membri del pubblico siano stati presi di mira come parte della truffa e incoraggiati dagli agenti di BTC Global.
Alcuni degli investitori sono stati pagati in termini di accordo. Tuttavia, i pagamenti si sono improvvisamente fermati"
La stessa società ad inizio 2018 aveva perpetrato un'altra truffa di 50 milioni di dollari in Bitcoin.
Sempre questa settimana invece, alcuni rapitori hanno chiesto un riscatto in Bitcoin di circa 120.000 dollari per rilasciare un adolescente sudafricano.
Nelle ultime ore infatti, un hacker inglese è stato incarcerato per 10 anni e otto mesi dopo essere stato riconosciuto colpevole di aver venduto 63.000 carte di credito e di debito rubate nel Deep Web.
La polizia ha sequestrato una quantità di Bitcoin del valore di oltre 600.000 dollari.
Si tratta di un 26 enne di nome Grant West, un hacker residente a Kent, Gran Bretagna.
L'uomo è riuscito a rubare i dati personali di circa 165.000 persone attraverso uno schema di “phishing”.
L’accusa ha dichiarato di aver tratto profitto per oltre 180.000 sterline (circa 205 mila euro) dalla truffa e di aver convertito i proventi in Bitcoin, che sarebbero poi stati archiviati in più account.
I fondi, che al momento della truffa erano 205 mila euro, dopo essere stati convertiti in Bitcoin, sono “cresciuti” diventando oltre 500 mila euro, grazie alla crescita del valore del Bitcoin.
West inviava e-mail fingendo di essere la catena "Just Eat", un' app (attiva anche in Italia) per effettuare ordini da ristoranti e bar, per estrarre i dettagli delle carte di credito e di debito dalle sue vittime.
Il criminale è stato condannato a quasi 11 anni di carcere per cospirazione, frode, uso improprio di computer e reati di droga.
Spostandoci invece in Sud Africa, la polizia sta indagando su una società che avrebbe truffato gli investitori per 1 miliardo di rand (68 milioni di dollari in Bitcoin) con promesse di enormi rendimenti che non si sono mai materializzati.
L’indagine sulle frodi coinvolge una società chiamata BTC Global, che ha detto ai clienti che avrebbero guadagnato il 2% al giorno, il 14% alla settimana e il 50% in un mese.
Una ricerca per l’azienda su Internet ha mostrato che i suoi servizi erano stati sospesi.
"Si ritiene che i membri del pubblico siano stati presi di mira come parte della truffa e incoraggiati dagli agenti di BTC Global.
Alcuni degli investitori sono stati pagati in termini di accordo. Tuttavia, i pagamenti si sono improvvisamente fermati"
La stessa società ad inizio 2018 aveva perpetrato un'altra truffa di 50 milioni di dollari in Bitcoin.
Sempre questa settimana invece, alcuni rapitori hanno chiesto un riscatto in Bitcoin di circa 120.000 dollari per rilasciare un adolescente sudafricano.
lunedì 28 maggio 2018
La Storia Della Realtà Virtuale: HMD, CAMS, Telefactoring, Telepresenza, DataGlove
Nei primi anni 80 esce Videodrome, film diretto da David Cronenberg.
Max Renn, direttore di un canale di una TV privata, specializzatasi nel genere porno, capta un giorno uno strano programma, in cui si possono vedere torture ed assassini.
E' un tecnico della stazione che riesce nella impresa di trovare le relative immagini, che sono prodotte per il programma intitolato "Videodrome" nel quale figura come conduttore un certo Brian.
Ma Brian (come scoprirà Max) è morto da tempo: è solo un nastro che lo presenta e così, grazie anche alla figlia di costui (Nicky), Max verrà immesso in un delirio di allucinazioni e poi di delitti, dovuti alla dittatura ipnotica che Barry Convex, il direttore di Videodrome, esercita su di lui come su altri.
L'idea di Convex é infatti di manipolare le coscienze con il dominio assoluto del mezzo tecnico.
Proprio sulla scia di questo film, poco dopo iniziano a vedersi negli ospedali, nelle sale giochi e nei centri di ricerche gli "Head Mounted Display": cioè i caschi della realtà virtuale.
In realtà gli ambienti artificiali affondavano le loro radici almeno nei due decenni precedenti grazie ad Ivan Sutherland, Nicholas Negroponte, Alan Kay influenzati da Douglas Engelbart e J.R.C. Licklider (secondo i quali la simbiosi uomo-computer avrebbe influenzato la diffusione dei personal computer che da lì a poco, effettivamente, si diffonderanno in modo capillare).
Addirittura negli anni 50, grazie ad Heilig, venne creato un apparato capace di stimolare più sensi.
Nel 1962 Heiling presentò un prototipo, il Sensorama.
Sensorama consisteva di diverse parti meccaniche.
Gli utenti erano seduti su una sedia che si muoveva insieme alla simulazione, mentre un grande schermo stereoscopico e casse stereo fornivano stimoli visivi e sonori.
Il sistema sfruttava anche di un tunnel del vento per creare effetti d'aria e diffondere profumi.
Il Sensorama si dimostrò troppo in anticipo per il suo tempo e non riuscì ad attrarre investitori.
Non a caso non venne mai portato al termine (rimase come prototipo).
Forse ispirati da Heilig, due ingegneri che lavoravano per la Philco inventarono quello che è considerato sia il primo visore stereoscopico, l'Head Mounted Display (HMD), l'Headsight. Progettato per la videosorveglianza, l'Headsight mostrava video di sicurezza in tempo reale ricevuti da una videocamera installata nelle vicinanze. Usava una singola fonte di luce e un sistema di tracking magnetico per rilevare il movimento e inviare comandi al fine di attivare la videocamera in base a come l'operatore muoveva la testa.
Non si trattava di un dispositivo di realtà virtuale nel vero senso della parola, in quanto le immagini mostrate erano reali, ma sicuramente spianò la strada ai successivi visori VR.
Nel 1965 Ivan Sutherland crea una installazione capace di costruire un "mondo matematico" in cui tutti gli stimoli percettivi di un soggetto possano essere sostituiti con stimoli generati elettronicamente. L’intuizione, relativamente semplice, che sta alla base della scoperta è che una qualsiasi forma geometrica che si possa descrivere matematicamente può esistere entro uno spazio generato da un computer.
È lo stesso Sutherland a realizzare, presso la Utah University, nel 1968, il primo dispositivo per la visione stereoscopica: la famosa "spada di Damocle".
Affine ai simulatori di volo per l’addestramento dei piloti aeronautici (ne erano già stati progettati da Edwin Link per l’esercito americano alla fine degli anni 20), l’installazione di Sutherland prevedeva l’immersione del soggetto in una rappresentazione tridimensionale della realtà generata dal calcolatore.
A fine anni 60, Myron Krueger aveva costruito degli ambienti interattivi che rispondevano ai movimenti e alle azioni degli utilizzatori, il più famoso fu Videoplace (1975).
Krueger parlava di "realtà artificiale".
Videoplace fu un'evoluzione dei vari: Glowflow, Metaplay e Psychic Space.
Esso utilizzava proiettori, videocamere e particolari hardware per "collocare" gli utenti nella realtà artificiale.
Gli utenti, in stanze separate, erano in grado d'interagire tra loro mediante questa tecnologia.
Più precisamente il termine "Cyborg" nacque negli anni 60 grazie alla NASA e alle ricerche spaziali.
Negli anni 70 i CAMS (Cybernetics Anthropomorphous Machine Systems) della General Electric comprendevano manipolatori, pedipolatori, camion deambulanti, sistemi per il "telefactoring" (manipolatori remoti che permettevano di lavorare a distanza su oggetti posti in ambienti pericolosi. Si tratta di un'unità master controllata dall'operatore, un sistema di trasmissione intermedio ed un'unità slave che opera nell'ambiente remoto. Il manipolatore controllato dall'operatore fornisce un'opportuna retroazione, cioè un feedback spaziale, tattile o sensoriale, per simulare la sensazione di operare direttamente sull'ambiente remoto. Insomma non dati numerici ma informazioni "sensoriali". La difficoltà principale risiedeva nel renderli resistenti in quanto dovevano essere adatti ad ambienti particolarmente ostili in termine di T e P).
Negli anni '70 Thomas Furness stava cercando di costruire un cockpit simulato al computer per la U.S. Air Force al fine di far esercitare i piloti dei caccia.
Il lavoro diede i suoi frutti nel 1982 con lo sviluppo del Super Cockpit o VCASS (Visually Coupled Airborne Systems Simulator).
Era anche chiamato "Darth Vader" perché la maschera che bisognava usare ricordava molto da vicino quella del famoso personaggio di Guerre Stellari.
La NASA costruì inoltre i "Space Horse" che comprendevano arti artificiali e i cui motori captavano segnali elettrici provenienti dal cervello, armi con congegni di puntamento direttamente collegati all'occhio.
Questi apparecchi poi sono stati ulteriormente sviluppati negli anni 80 tramite i sistemi di "telepresenza".
Di cosa si tratta? La telepresenza grazie all’utilizzo di robot consente di essere presente in qualunque posto, in tempo reale.
È dunque una sorta di estensione del corpo che permette di incidere sulla realtà, anche se parecchio distante da dove ti trovi realmente, come se potessimo veramente toccarla.
Grazie alla telepresenza è possibile per esempio tenere una lezione a distanza, eseguire un intervento chirurgico senza essere fisicamente in sala operatoria, ispezionare luoghi pericolosi, sorvegliare la tua abitazione anche se ti trovi in vacanza dall’altra parte del mondo.
Un robot per la telepresenza, nella maggior parte dei casi, si presenta come un tablet su ruote, sorretto da un’asta o un tronco metallico a fare da corpo.
E' possibile connettersi con questi robot da qualunque parte del mondo ed è possibile (oggi) controllarli via Internet.
Sostanzialmente si tratta di sistemi con robot connessi ad Internet e dotati di uno schermo, di altoparlanti e di microfoni. Questo robot viene controllato a distanza da una persona che in questo modo è connessa e presente, anche se non fisicamente, nel posto delle persone con le quali sta interagendo.
Il primo DataGlove (guanto interfacciato con un computer) fu lo Z-Glove della VPL, che compare nel 1985 ed è il risultato del lavoro di Tom Zimmermann.
La NASA creò anche il VIEW (Virtual Interface Environment Workstation).
Il sistema VIEW usava un elmetto per la realtà virtuale stereoscopica.
Le ottiche del sistema erano fornite da LEEP Optics, che in seguito presentò un proprio visore VR noto come Cyberface.
L'interfaccia utente era sostenuta da un sistema di riconoscimento vocale e dall'uso del già citato DataGlove forniti da VPL.
Jaron Lanier a fine anni 80 "fuse" (cioè mise assieme) il casco di Sutherland (1965), il "DataGlove" (1985) di Thomas Zimmerman prodotto per la NASA (come detto si trattava di un guanto che rilevava i movimenti della mano), il suono stereofonico e un nuovo linguaggio di programmazione visivo: tutto ciò per costruire il primi ambiente virtuale.
Fondò inoltre la VPL (Visual Programming Language).
L'idea alla base era di eliminare sequenze di numeri (tastiere), puntatori (mouse) o simboli astratti da digitare per lasciare spazio, semplicemente, ai movimenti del corpo.
Come software l'ambiente utilizzava il reality engine, cioè il motore della realtà: esso era "sensibile" ai movimenti e cambiava gli ambienti attorno a noi (pareti, oggetti, mobili, etc) per farceli percepire come quelli della realtà ordinaria.
Il mondo presentatosi davanti poteva essere simili alla realtà o funzionare secondo leggi fisiche diverse ma appariva al "tatto" come un mondo reale.
Era possibile prendere in mano gli oggetti e spostarli, sentirne il rumore, volare ed ovviamente spostarsi da una stanza all'altra.
Bastava indossare il "guanto del potere" (così veniva indicato in gergo) e il casco per entrare nella "augmented reality".
Cioè come se l'umano utilizzatore fosse connesso ad una macchina (tipo Cyborg).
Nel 1989, intanto, la Mattel aveva ottenuto l’autorizzazione a sfruttare il prototipo di Zimmermann a fini commerciali: il risultato fu un sistema, il Powerglove, sviluppato da Rich Old, che costituisce il primo esempio di strumento di realtà virtuale venduto sul mercato.
Nel 1991 lo stesso Zimmermann e Jaron Lanier (fondatori, insieme a Steve Bryson, della VPL) depositano il brevetto del guanto come un Computer Data Entry And Manipulation Apparatus Method, un dispositivo informatico di input e di manipolazione degli oggetti generati nell’ambiente virtuale creato dalla macchina: in sostanza uno strumento che rileva i movimenti della mano dell’utente e li proietta sugli assi cartesiani dello spazio tridimensionale generato dal computer.
In tempi più recenti, poi, si è iniziato a lavorare al "softwear" (computer indossabile o vestiario computerizzato): occhiali sostituiti da piccoli schermi collegati a telecamere che consentono di vedere costantemente ciò che accade dietro o sopra senza muovere la testa (tasti per prendere appunti, sensori nella maglia che misurano il battito cardiaco, la sudorazione o la velocità dei passi).
Nel 1995 Zimmermann inventò la "Personal Area Network", cioè uno strumento che utilizza una piccola corrente elettrica per inviare messaggi da una parte all'altra del corpo o tra corpi diversi (in modo tale che fosse possibile pagare un venditore, senza usare carte di credito, semplicemente stringendogli la mano).
Tutti i vari Sony Glasstron (1996), Scuba VR (1997), eMagin 7800 (2500), Nintendo Wii Remote (2006), Playstation Move (2009), Xbox Kinetic (2010), Wrap VR1200 (2011), Tobii Eye Tracking (2011), Oculus Rift (2012), Virtuix Omni (2013), Morpheus (2014), Google Cardboard (2014), Samsung Gear VR (2014), Fove (2015), Razer OSVR (2015), Vrvana Totem (2015), Sensict dSight (2015), Oculus CV1 (2015), HTC Vive Pre e Vive (2016)...sono figli di questi innovatori che sperimentarono tra gli anni 60 ed 80.
Per saperne di più: La Storia Dei Dispositivi Indossabili
Max Renn, direttore di un canale di una TV privata, specializzatasi nel genere porno, capta un giorno uno strano programma, in cui si possono vedere torture ed assassini.
E' un tecnico della stazione che riesce nella impresa di trovare le relative immagini, che sono prodotte per il programma intitolato "Videodrome" nel quale figura come conduttore un certo Brian.
Ma Brian (come scoprirà Max) è morto da tempo: è solo un nastro che lo presenta e così, grazie anche alla figlia di costui (Nicky), Max verrà immesso in un delirio di allucinazioni e poi di delitti, dovuti alla dittatura ipnotica che Barry Convex, il direttore di Videodrome, esercita su di lui come su altri.
L'idea di Convex é infatti di manipolare le coscienze con il dominio assoluto del mezzo tecnico.
Proprio sulla scia di questo film, poco dopo iniziano a vedersi negli ospedali, nelle sale giochi e nei centri di ricerche gli "Head Mounted Display": cioè i caschi della realtà virtuale.
In realtà gli ambienti artificiali affondavano le loro radici almeno nei due decenni precedenti grazie ad Ivan Sutherland, Nicholas Negroponte, Alan Kay influenzati da Douglas Engelbart e J.R.C. Licklider (secondo i quali la simbiosi uomo-computer avrebbe influenzato la diffusione dei personal computer che da lì a poco, effettivamente, si diffonderanno in modo capillare).
Addirittura negli anni 50, grazie ad Heilig, venne creato un apparato capace di stimolare più sensi.
Nel 1962 Heiling presentò un prototipo, il Sensorama.
Sensorama consisteva di diverse parti meccaniche.
Gli utenti erano seduti su una sedia che si muoveva insieme alla simulazione, mentre un grande schermo stereoscopico e casse stereo fornivano stimoli visivi e sonori.
Il sistema sfruttava anche di un tunnel del vento per creare effetti d'aria e diffondere profumi.
Il Sensorama si dimostrò troppo in anticipo per il suo tempo e non riuscì ad attrarre investitori.
Non a caso non venne mai portato al termine (rimase come prototipo).
Forse ispirati da Heilig, due ingegneri che lavoravano per la Philco inventarono quello che è considerato sia il primo visore stereoscopico, l'Head Mounted Display (HMD), l'Headsight. Progettato per la videosorveglianza, l'Headsight mostrava video di sicurezza in tempo reale ricevuti da una videocamera installata nelle vicinanze. Usava una singola fonte di luce e un sistema di tracking magnetico per rilevare il movimento e inviare comandi al fine di attivare la videocamera in base a come l'operatore muoveva la testa.
Non si trattava di un dispositivo di realtà virtuale nel vero senso della parola, in quanto le immagini mostrate erano reali, ma sicuramente spianò la strada ai successivi visori VR.
Nel 1965 Ivan Sutherland crea una installazione capace di costruire un "mondo matematico" in cui tutti gli stimoli percettivi di un soggetto possano essere sostituiti con stimoli generati elettronicamente. L’intuizione, relativamente semplice, che sta alla base della scoperta è che una qualsiasi forma geometrica che si possa descrivere matematicamente può esistere entro uno spazio generato da un computer.
È lo stesso Sutherland a realizzare, presso la Utah University, nel 1968, il primo dispositivo per la visione stereoscopica: la famosa "spada di Damocle".
Affine ai simulatori di volo per l’addestramento dei piloti aeronautici (ne erano già stati progettati da Edwin Link per l’esercito americano alla fine degli anni 20), l’installazione di Sutherland prevedeva l’immersione del soggetto in una rappresentazione tridimensionale della realtà generata dal calcolatore.
A fine anni 60, Myron Krueger aveva costruito degli ambienti interattivi che rispondevano ai movimenti e alle azioni degli utilizzatori, il più famoso fu Videoplace (1975).
Krueger parlava di "realtà artificiale".
Videoplace fu un'evoluzione dei vari: Glowflow, Metaplay e Psychic Space.
Esso utilizzava proiettori, videocamere e particolari hardware per "collocare" gli utenti nella realtà artificiale.
Gli utenti, in stanze separate, erano in grado d'interagire tra loro mediante questa tecnologia.
Più precisamente il termine "Cyborg" nacque negli anni 60 grazie alla NASA e alle ricerche spaziali.
Negli anni 70 i CAMS (Cybernetics Anthropomorphous Machine Systems) della General Electric comprendevano manipolatori, pedipolatori, camion deambulanti, sistemi per il "telefactoring" (manipolatori remoti che permettevano di lavorare a distanza su oggetti posti in ambienti pericolosi. Si tratta di un'unità master controllata dall'operatore, un sistema di trasmissione intermedio ed un'unità slave che opera nell'ambiente remoto. Il manipolatore controllato dall'operatore fornisce un'opportuna retroazione, cioè un feedback spaziale, tattile o sensoriale, per simulare la sensazione di operare direttamente sull'ambiente remoto. Insomma non dati numerici ma informazioni "sensoriali". La difficoltà principale risiedeva nel renderli resistenti in quanto dovevano essere adatti ad ambienti particolarmente ostili in termine di T e P).
Negli anni '70 Thomas Furness stava cercando di costruire un cockpit simulato al computer per la U.S. Air Force al fine di far esercitare i piloti dei caccia.
Il lavoro diede i suoi frutti nel 1982 con lo sviluppo del Super Cockpit o VCASS (Visually Coupled Airborne Systems Simulator).
Era anche chiamato "Darth Vader" perché la maschera che bisognava usare ricordava molto da vicino quella del famoso personaggio di Guerre Stellari.
La NASA costruì inoltre i "Space Horse" che comprendevano arti artificiali e i cui motori captavano segnali elettrici provenienti dal cervello, armi con congegni di puntamento direttamente collegati all'occhio.
Questi apparecchi poi sono stati ulteriormente sviluppati negli anni 80 tramite i sistemi di "telepresenza".
Di cosa si tratta? La telepresenza grazie all’utilizzo di robot consente di essere presente in qualunque posto, in tempo reale.
È dunque una sorta di estensione del corpo che permette di incidere sulla realtà, anche se parecchio distante da dove ti trovi realmente, come se potessimo veramente toccarla.
Grazie alla telepresenza è possibile per esempio tenere una lezione a distanza, eseguire un intervento chirurgico senza essere fisicamente in sala operatoria, ispezionare luoghi pericolosi, sorvegliare la tua abitazione anche se ti trovi in vacanza dall’altra parte del mondo.
Un robot per la telepresenza, nella maggior parte dei casi, si presenta come un tablet su ruote, sorretto da un’asta o un tronco metallico a fare da corpo.
E' possibile connettersi con questi robot da qualunque parte del mondo ed è possibile (oggi) controllarli via Internet.
Sostanzialmente si tratta di sistemi con robot connessi ad Internet e dotati di uno schermo, di altoparlanti e di microfoni. Questo robot viene controllato a distanza da una persona che in questo modo è connessa e presente, anche se non fisicamente, nel posto delle persone con le quali sta interagendo.
Il primo DataGlove (guanto interfacciato con un computer) fu lo Z-Glove della VPL, che compare nel 1985 ed è il risultato del lavoro di Tom Zimmermann.
La NASA creò anche il VIEW (Virtual Interface Environment Workstation).
Il sistema VIEW usava un elmetto per la realtà virtuale stereoscopica.
Le ottiche del sistema erano fornite da LEEP Optics, che in seguito presentò un proprio visore VR noto come Cyberface.
L'interfaccia utente era sostenuta da un sistema di riconoscimento vocale e dall'uso del già citato DataGlove forniti da VPL.
Jaron Lanier a fine anni 80 "fuse" (cioè mise assieme) il casco di Sutherland (1965), il "DataGlove" (1985) di Thomas Zimmerman prodotto per la NASA (come detto si trattava di un guanto che rilevava i movimenti della mano), il suono stereofonico e un nuovo linguaggio di programmazione visivo: tutto ciò per costruire il primi ambiente virtuale.
Fondò inoltre la VPL (Visual Programming Language).
L'idea alla base era di eliminare sequenze di numeri (tastiere), puntatori (mouse) o simboli astratti da digitare per lasciare spazio, semplicemente, ai movimenti del corpo.
Come software l'ambiente utilizzava il reality engine, cioè il motore della realtà: esso era "sensibile" ai movimenti e cambiava gli ambienti attorno a noi (pareti, oggetti, mobili, etc) per farceli percepire come quelli della realtà ordinaria.
Il mondo presentatosi davanti poteva essere simili alla realtà o funzionare secondo leggi fisiche diverse ma appariva al "tatto" come un mondo reale.
Era possibile prendere in mano gli oggetti e spostarli, sentirne il rumore, volare ed ovviamente spostarsi da una stanza all'altra.
Bastava indossare il "guanto del potere" (così veniva indicato in gergo) e il casco per entrare nella "augmented reality".
Cioè come se l'umano utilizzatore fosse connesso ad una macchina (tipo Cyborg).
Nel 1989, intanto, la Mattel aveva ottenuto l’autorizzazione a sfruttare il prototipo di Zimmermann a fini commerciali: il risultato fu un sistema, il Powerglove, sviluppato da Rich Old, che costituisce il primo esempio di strumento di realtà virtuale venduto sul mercato.
Nel 1991 lo stesso Zimmermann e Jaron Lanier (fondatori, insieme a Steve Bryson, della VPL) depositano il brevetto del guanto come un Computer Data Entry And Manipulation Apparatus Method, un dispositivo informatico di input e di manipolazione degli oggetti generati nell’ambiente virtuale creato dalla macchina: in sostanza uno strumento che rileva i movimenti della mano dell’utente e li proietta sugli assi cartesiani dello spazio tridimensionale generato dal computer.
In tempi più recenti, poi, si è iniziato a lavorare al "softwear" (computer indossabile o vestiario computerizzato): occhiali sostituiti da piccoli schermi collegati a telecamere che consentono di vedere costantemente ciò che accade dietro o sopra senza muovere la testa (tasti per prendere appunti, sensori nella maglia che misurano il battito cardiaco, la sudorazione o la velocità dei passi).
Nel 1995 Zimmermann inventò la "Personal Area Network", cioè uno strumento che utilizza una piccola corrente elettrica per inviare messaggi da una parte all'altra del corpo o tra corpi diversi (in modo tale che fosse possibile pagare un venditore, senza usare carte di credito, semplicemente stringendogli la mano).
Tutti i vari Sony Glasstron (1996), Scuba VR (1997), eMagin 7800 (2500), Nintendo Wii Remote (2006), Playstation Move (2009), Xbox Kinetic (2010), Wrap VR1200 (2011), Tobii Eye Tracking (2011), Oculus Rift (2012), Virtuix Omni (2013), Morpheus (2014), Google Cardboard (2014), Samsung Gear VR (2014), Fove (2015), Razer OSVR (2015), Vrvana Totem (2015), Sensict dSight (2015), Oculus CV1 (2015), HTC Vive Pre e Vive (2016)...sono figli di questi innovatori che sperimentarono tra gli anni 60 ed 80.
Per saperne di più: La Storia Dei Dispositivi Indossabili
domenica 27 maggio 2018
La Storia Della Sequoia Capital: Investimenti e Capitali Di Rischio
La Sequoia Capital venne fondata nel 1972 da Don Valentine a Menlo Park (California).
Si tratta di una società di venture capital (capitali di rischio) che ha quasi sempre investito nel settore tecnologico (da 100mila dollari ad 1 milione per le società in fase di lancio, sino a 100 milioni di dollari per quelle già avviate e in fase di crescita).
La società ha elargito soldi per Atari, Apple, Google, Yahoo, Youtube, Paypal, Airbnb, Cisco, Electronic Arts, Plaxo, DropBox, LinkedIn, Nvidia, etc
Tra gli uomini più importanti della società il gallese Michael Moritz, laureatosi ad Oxford ed entrato nella società nel 1986.
LO SCHERZO DI ZUCKERBERG E PARKER
Sequoia non fu solo gioia e dolori ma ebbe anche una storia curiosa con Facebook quando il social network di Mark Zuckerberg era popolare solo in America.
Siamo nel 2004 e Zuckerberg non era ancora convinto di voler rimanere a capo di Facebook e aveva in mente un’altra idea per una start up, che voleva chiamare Wirehog, e che pensava potesse avere più successo.
Così iniziò a parlarne con i fondi di investimento per ottenere il denaro che gli sarebbe servito per realizzare la sua idea ma anche per avere soldi per Facebook (Severin che aveva messo i primi soldi era stato fatto fuori).
Sequoia Capital si mise in comunicazione con lui, e Zuckerberg non aveva nessuna intenzione di considerare un investimento che venisse da Sequoia, dal momento che Zuckerberg aveva assunto Sean Parker, co-fondatore di Napster (con Shawn Fanning) e vecchio nemico della società.
Sequoia aveva investito proprio in una startup di Parker, Plaxo, ma poi non si sa bene per quale motivo Parker era stato sbattuto fuori (probabilmente per spamming).
Facebook seppur ancora agli inizi già faceva gola ad un sacco di società quindi Zuckerberg su suggerimento di Parker ebbe la brillante idea di prendere per i fondelli la società d'investimenti.
I due fissarono comunque l’appuntamento, perché avevano in mente uno scherzo.
Così Zuckerberg si presentò in ritardo all’appuntamento fissato per le otto del mattino, e per di più indossando un pigiama.
Si avviò verso la lavagna elettronica e fece la sua presentazione mostrando delle slide in power point sullo stile di quelle utilizzate da David Letterman durante il suo “Late Show”.
Il titolo era “Le dieci ragioni per cui non dovreste investire”.
Tra queste:
“Non abbiamo guadagni”
“Saremo probabilmente citati in giudizio dall’industria musicale”
“Abbiamo fatto tardi all’appuntamento e ci siamo presentati in pigiama”
“Sean Parker è coinvolto”
“Siamo qui soltanto perché ci hanno chiesto di esserci”
Il risultato fu che Sequoia non investì in Wirehog, e non investì nemmeno in Facebook.
Ma a partire dal 2010 Zuckerberg ha iniziato a sentirsi in colpa per questo scherzo, e infatti ha raccontato a David Kirkpatrick: “Capisco che li abbiamo davvero offesi, e ora mi sento davvero male per questo”.
Durante l'acquisizione di WhatsApp, Zuckerberg ha pagato il prezzo del suo scherzo, con l’acquisizione di Whatsapp per 19 miliardi di dollari.
Il gigante della messaggistica infatti era finanziato per il 40% proprio da Sequoia Capital, che era stato l’unico fondo di investimento, a farsi carico di finanziare il progetto.
Lo scherzo di gioventù sarebbe costato a Mark Zuckerberg circa 6,4 miliardi di dollari.
Si tratta di una società di venture capital (capitali di rischio) che ha quasi sempre investito nel settore tecnologico (da 100mila dollari ad 1 milione per le società in fase di lancio, sino a 100 milioni di dollari per quelle già avviate e in fase di crescita).
La società ha elargito soldi per Atari, Apple, Google, Yahoo, Youtube, Paypal, Airbnb, Cisco, Electronic Arts, Plaxo, DropBox, LinkedIn, Nvidia, etc
Tra gli uomini più importanti della società il gallese Michael Moritz, laureatosi ad Oxford ed entrato nella società nel 1986.
LO SCHERZO DI ZUCKERBERG E PARKER
Sequoia non fu solo gioia e dolori ma ebbe anche una storia curiosa con Facebook quando il social network di Mark Zuckerberg era popolare solo in America.
Siamo nel 2004 e Zuckerberg non era ancora convinto di voler rimanere a capo di Facebook e aveva in mente un’altra idea per una start up, che voleva chiamare Wirehog, e che pensava potesse avere più successo.
Così iniziò a parlarne con i fondi di investimento per ottenere il denaro che gli sarebbe servito per realizzare la sua idea ma anche per avere soldi per Facebook (Severin che aveva messo i primi soldi era stato fatto fuori).
Sequoia Capital si mise in comunicazione con lui, e Zuckerberg non aveva nessuna intenzione di considerare un investimento che venisse da Sequoia, dal momento che Zuckerberg aveva assunto Sean Parker, co-fondatore di Napster (con Shawn Fanning) e vecchio nemico della società.
Sequoia aveva investito proprio in una startup di Parker, Plaxo, ma poi non si sa bene per quale motivo Parker era stato sbattuto fuori (probabilmente per spamming).
Facebook seppur ancora agli inizi già faceva gola ad un sacco di società quindi Zuckerberg su suggerimento di Parker ebbe la brillante idea di prendere per i fondelli la società d'investimenti.
I due fissarono comunque l’appuntamento, perché avevano in mente uno scherzo.
Così Zuckerberg si presentò in ritardo all’appuntamento fissato per le otto del mattino, e per di più indossando un pigiama.
Si avviò verso la lavagna elettronica e fece la sua presentazione mostrando delle slide in power point sullo stile di quelle utilizzate da David Letterman durante il suo “Late Show”.
Il titolo era “Le dieci ragioni per cui non dovreste investire”.
Tra queste:
“Non abbiamo guadagni”
“Saremo probabilmente citati in giudizio dall’industria musicale”
“Abbiamo fatto tardi all’appuntamento e ci siamo presentati in pigiama”
“Sean Parker è coinvolto”
“Siamo qui soltanto perché ci hanno chiesto di esserci”
Il risultato fu che Sequoia non investì in Wirehog, e non investì nemmeno in Facebook.
Ma a partire dal 2010 Zuckerberg ha iniziato a sentirsi in colpa per questo scherzo, e infatti ha raccontato a David Kirkpatrick: “Capisco che li abbiamo davvero offesi, e ora mi sento davvero male per questo”.
Durante l'acquisizione di WhatsApp, Zuckerberg ha pagato il prezzo del suo scherzo, con l’acquisizione di Whatsapp per 19 miliardi di dollari.
Il gigante della messaggistica infatti era finanziato per il 40% proprio da Sequoia Capital, che era stato l’unico fondo di investimento, a farsi carico di finanziare il progetto.
Lo scherzo di gioventù sarebbe costato a Mark Zuckerberg circa 6,4 miliardi di dollari.
sabato 26 maggio 2018
Negozi Italiani Che Accettano Bitcoin (2018)
Quali sono i negozi italiani e mondiali che accettano Bitcoin?
Ormai sono sempre di più i negozi (e gli ATM da cui è possibile prelevare) che accettano questa criptovaluta.
Oltre al noto CoinMap (che indicizza tutti i negozi mondiali che accettano la criptovaluta), uno specializzato e dedicato proprio alla penisola italiana è QuiBitcoin.
Per il momento, gli ATM segnalati sono solo quattro:
-Milano
-Torino
-Firenze
-San Giuliano Terme
A livello di negozi "fisici" che accettano la criptovaluta si trova un po' di tutto (dal turismo a negozi sportivi, passando per bar, industrie, farmacie, etc) con netta predominanza nel Nord Italia.
Nel momento in cui è stato scritto l'articolo, questi sono i negozi divisi per regione:
Per comprare Bitcoin ed altre criptovalute in modo sicuro, per venderle o convertirle in euro (o buoni Amazon) vi rimando a: LocalBitcoins e Spectrocoin.
Ormai sono sempre di più i negozi (e gli ATM da cui è possibile prelevare) che accettano questa criptovaluta.
Oltre al noto CoinMap (che indicizza tutti i negozi mondiali che accettano la criptovaluta), uno specializzato e dedicato proprio alla penisola italiana è QuiBitcoin.
Per il momento, gli ATM segnalati sono solo quattro:
-Milano
-Torino
-Firenze
-San Giuliano Terme
A livello di negozi "fisici" che accettano la criptovaluta si trova un po' di tutto (dal turismo a negozi sportivi, passando per bar, industrie, farmacie, etc) con netta predominanza nel Nord Italia.
Nel momento in cui è stato scritto l'articolo, questi sono i negozi divisi per regione:
Per comprare Bitcoin ed altre criptovalute in modo sicuro, per venderle o convertirle in euro (o buoni Amazon) vi rimando a: LocalBitcoins e Spectrocoin.
giovedì 24 maggio 2018
Come Minare Ethereum Con Claymore Dual Miner
In questo articolo vedremo come minare Ethereum.
Per prima cosa vi serve un wallet, io consiglio Exodus (visto che contiene anche molte altre criptovalute) oppure Metamask (solo Ethereum ed Erc20) o Trust Wallet
Una volta installato, andate su wallet, Ethereum ed infine "receive" (affinchè il software vi assegni un indirizzo).
Fatto ciò, copiate l'indirizzo.
Per scaricare il miner per minare: Nanopool (Download Claymore DualMiner)
Sempre allo stesso link di prima, schiacciare su "generate your config", spuntando Windows ed AMD (andrà dato un nome al worker ed inserita la nostra mail).
In "first algorithm address" inseriamo il nostro indirizzo Ethereum copiato in precedenza (in "second algorithm", none).
Cliccando su "generate" otterremo un file zippato con la configurazione appena settata.
Il file scaricato va estratto in una nuova cartella, copiamo i files "epools" e "start" ed incolliamoli nella cartella del software Claymore DualMiner.
Avviamo il file start.batch (otterremo una serie d'info che identificano il lavoro della GPU e la Pool in cui stiamo minando).
Il mh/s (1 equivale a 1000 ashes/s) non deve essere inferiore a 24 mh/s (ovviamente maggiore è la potenza elargita e maggiori saranno le transazioni elaborate quindi il guadagno).
Per prima cosa vi serve un wallet, io consiglio Exodus (visto che contiene anche molte altre criptovalute) oppure Metamask (solo Ethereum ed Erc20) o Trust Wallet
Una volta installato, andate su wallet, Ethereum ed infine "receive" (affinchè il software vi assegni un indirizzo).
Fatto ciò, copiate l'indirizzo.
Per scaricare il miner per minare: Nanopool (Download Claymore DualMiner)
Sempre allo stesso link di prima, schiacciare su "generate your config", spuntando Windows ed AMD (andrà dato un nome al worker ed inserita la nostra mail).
In "first algorithm address" inseriamo il nostro indirizzo Ethereum copiato in precedenza (in "second algorithm", none).
Cliccando su "generate" otterremo un file zippato con la configurazione appena settata.
Il file scaricato va estratto in una nuova cartella, copiamo i files "epools" e "start" ed incolliamoli nella cartella del software Claymore DualMiner.
Avviamo il file start.batch (otterremo una serie d'info che identificano il lavoro della GPU e la Pool in cui stiamo minando).
Il mh/s (1 equivale a 1000 ashes/s) non deve essere inferiore a 24 mh/s (ovviamente maggiore è la potenza elargita e maggiori saranno le transazioni elaborate quindi il guadagno).
Qui trovate una guida completa, con altri metodi: Come Guadagnare Criptovalute Gratis (Guida Completa)
mercoledì 23 maggio 2018
La Storia Del Bitcoin Pizza Day (22 Maggio 2010)
"Sono disposto a pagare 10.000 Bitcoin per un paio di pizze, magari belle grandi, così mi basteranno anche per il giorno successivo. Mi piace avere pizza avanzata da mangiucchiare più tardi.Potete fare voi stessi la pizza e portarmela a casa oppure ordinarla per conto mio da qualche pizzeria, quello che sto cercando di fare è ottenere del cibo in cambio di Bitcoin senza doverlo ordinare o preparare da me, un po' come quando ordini la colazione in albergo: ti portano semplicemente qualcosa da mangiare e sei apposto!"
Così scrisse Hanyecz su Bitcointalk nel 2010, tentando di trovare qualcuno che gli consentisse di effettuare la transazione. Al cambio dei tempi 10.000 Bitcoin erano 41 dollari.
Effettivamente, quattro giorni dopo, la transazione avvenne e da allora quel giorno è noto come "Bitcoin Pizza Day". Al cambio di oggi, quanto pagò il buon Laszlo? Quasi 79 milioni di dollari (a dicembre 2017 il valore di quei 41 dollari era di oltre 160 milioni!).In questo sito viene aggiornato il prezzo (in dollari) di queste 2 pizze, anno per anno: BitcoinPizzaDayIndex
Effettivamente, quattro giorni dopo, la transazione avvenne e da allora quel giorno è noto come "Bitcoin Pizza Day". Al cambio di oggi, quanto pagò il buon Laszlo? Quasi 79 milioni di dollari (a dicembre 2017 il valore di quei 41 dollari era di oltre 160 milioni!).In questo sito viene aggiornato il prezzo (in dollari) di queste 2 pizze, anno per anno: BitcoinPizzaDayIndex
Qui la transazione effettuata: Bitcoin Explorer (Bitcoin Pizza Day Transaction)
Come Contattare Personaggi Famosi e Sportivi: Fameroll App
Fameroll è un'innovativa app che permette di metterci in contatto con star famose.
L’idea è di Diletta Bussinello, Francesco Pivetti, Leonardo Cristoni e Guglielmo Gibertini, giovani fondatori e appassionati di comunicazione.
L’app è nata proprio per permettere alle star di rispondere alle richieste di video dediche da parte dei follower.
Richieste che star ed atleti famosi ricevono ogni giorno via Instagram.
Grazie all’app con un semplice click le celebrità possono interagire con i fan.
E al tempo stesso raccogliere fondi per cause buone e giuste.
Attraverso Fameroll in pratica si acquista un video personalizzato, semplicemente devolvendo in beneficenza il prezzo pagato.
Di solito sono le star a scegliere le associazioni a cui destinare il ricavato.
Al progetto hanno già aderito Bebe Vio (scherma), Federica Monacelli (boxe) Nek (cantante), Diana Del Bufalo (attrice e cantante), Andrea Petagna (calciatore) e Massimo Bottura (chef).
Questi personaggi realizzeranno con un semplice invio due grandi desideri: quello di chi li ama da sempre, li sostiene e da oggi con Fameroll può realizzare il sogno di entrare in contatto con loro; e quello di chi, grazie alle donazioni e i fondi raccolti, vedrà migliorata la propria vita.
Sito ufficiale: FameRoll
L’idea è di Diletta Bussinello, Francesco Pivetti, Leonardo Cristoni e Guglielmo Gibertini, giovani fondatori e appassionati di comunicazione.
L’app è nata proprio per permettere alle star di rispondere alle richieste di video dediche da parte dei follower.
Richieste che star ed atleti famosi ricevono ogni giorno via Instagram.
Grazie all’app con un semplice click le celebrità possono interagire con i fan.
E al tempo stesso raccogliere fondi per cause buone e giuste.
Attraverso Fameroll in pratica si acquista un video personalizzato, semplicemente devolvendo in beneficenza il prezzo pagato.
Di solito sono le star a scegliere le associazioni a cui destinare il ricavato.
Al progetto hanno già aderito Bebe Vio (scherma), Federica Monacelli (boxe) Nek (cantante), Diana Del Bufalo (attrice e cantante), Andrea Petagna (calciatore) e Massimo Bottura (chef).
Questi personaggi realizzeranno con un semplice invio due grandi desideri: quello di chi li ama da sempre, li sostiene e da oggi con Fameroll può realizzare il sogno di entrare in contatto con loro; e quello di chi, grazie alle donazioni e i fondi raccolti, vedrà migliorata la propria vita.
Sito ufficiale: FameRoll
lunedì 21 maggio 2018
Arrestati I Presunti Fondatori Della Chat Elysium (Deep Web)
La chat (e forum) Elysium accessibile solo tramite TOR era stato oscurato a luglio del 2017, pochi giorni fa quattro tedeschi sono stati accusati dalla procura di Francoforte per essere i presunti admin della piattaforma di pedopornografia.
Il sito era online dalla fine del 2016 ed era accessibile solo tramite Darknet.
Gli investigatori ritengono da sempre che potrebbe essersi trattato di un sito non nato ex novo ma derivante da un forum simile americano oscurato nello stesso anno.
Elysium era utilizzato per scambiare video e foto illegali e contava circa 111.000 membri registrati.
Il caso venne descritto come uno dei più sconvolgenti a livello mondiale, per quanto riguarda la pedopornografia negli ultimi anni.
I quattro uomini sono stati formalmente accusati di distribuzione e possesso di pornografia infantile (immagini e video).
Sono inoltre stati accusati di essere amministratori, programmatori e moderatori della piattaforma.
I quattro erano tra le 16 persone arrestate lo scorso luglio in Germania e in Austria dopo che la piattaforma venne sequestrata.
Gli uomini, di età compresa tra 40, 57, 58 e 62 anni, vivono negli stati della Germania meridionale di Assia, Baviera e Baden-Württemberg.
Il maggiore è anche accusato di aver abusato di due bambini di quattro e sei anni.
Negli anni '90 aveva tra l'altro scontato una pena detentiva per pedofilia.
Se giudicati colpevoli, tre dei quattro imputati rischiano fino a 10 anni di carcere, il più anziano invece potrebbe essere incarcerato per molto più tempo.
Il sito era online dalla fine del 2016 ed era accessibile solo tramite Darknet.
Gli investigatori ritengono da sempre che potrebbe essersi trattato di un sito non nato ex novo ma derivante da un forum simile americano oscurato nello stesso anno.
Elysium era utilizzato per scambiare video e foto illegali e contava circa 111.000 membri registrati.
Il caso venne descritto come uno dei più sconvolgenti a livello mondiale, per quanto riguarda la pedopornografia negli ultimi anni.
I quattro uomini sono stati formalmente accusati di distribuzione e possesso di pornografia infantile (immagini e video).
Sono inoltre stati accusati di essere amministratori, programmatori e moderatori della piattaforma.
I quattro erano tra le 16 persone arrestate lo scorso luglio in Germania e in Austria dopo che la piattaforma venne sequestrata.
Gli uomini, di età compresa tra 40, 57, 58 e 62 anni, vivono negli stati della Germania meridionale di Assia, Baviera e Baden-Württemberg.
Il maggiore è anche accusato di aver abusato di due bambini di quattro e sei anni.
Negli anni '90 aveva tra l'altro scontato una pena detentiva per pedofilia.
Se giudicati colpevoli, tre dei quattro imputati rischiano fino a 10 anni di carcere, il più anziano invece potrebbe essere incarcerato per molto più tempo.
sabato 19 maggio 2018
Young Signorino Bannato Da Instagram
Il controverso (e moto probabilmente "costruito a tavolino") trapper Young Signorino è stato bannato da Instagram.
Le cause del ban imposto alla mente dietro la canzone "Mmh ha ha ha" o "Dolce Droga" non sono ancora note, ma sono facilmente intuibili.
Rimane il fatto però che l’artista tra fan, haters e curiosi aveva raggiunto numeri da capogiro in pochissimo tempo (quasi 100mila followers).
Young Signorino aveva comunque ribadito che “la dolce droga” di cui parlano le sue liriche non era null’altro che la verdura esibita nel video.
Del suo pensiero, insomma, non v’è certezza, anche laddove il suddetto ribadisca a gran voce il rapporto di paternità che lo legherebbe a Satana in persona.
La questione, tuttavia, è ben lontana dal risolversi, perché la diatriba fra Signorino e i social network si infittisce: sulla pagina Facebook ufficiale (@younglaposignorino), sono stati rimossi tantissimi post.
È giusto, d’altronde, imporre il silenzio a un rapper solo perché parla di droga nei suoi testi?
Oppure, come sembra dalle voci, perché insulta qualche collega?
E' vero, i contenuti violenti allontanano utenti dalle piattaforme ma in questo caso parliamo di un fenomeno mediatico (seppur al 99%, effimero, quindi destinato, prima o poi, ad eclissarsi scomparendo nel nulla).
Le cause del ban imposto alla mente dietro la canzone "Mmh ha ha ha" o "Dolce Droga" non sono ancora note, ma sono facilmente intuibili.
Rimane il fatto però che l’artista tra fan, haters e curiosi aveva raggiunto numeri da capogiro in pochissimo tempo (quasi 100mila followers).
Young Signorino aveva comunque ribadito che “la dolce droga” di cui parlano le sue liriche non era null’altro che la verdura esibita nel video.
Del suo pensiero, insomma, non v’è certezza, anche laddove il suddetto ribadisca a gran voce il rapporto di paternità che lo legherebbe a Satana in persona.
La questione, tuttavia, è ben lontana dal risolversi, perché la diatriba fra Signorino e i social network si infittisce: sulla pagina Facebook ufficiale (@younglaposignorino), sono stati rimossi tantissimi post.
È giusto, d’altronde, imporre il silenzio a un rapper solo perché parla di droga nei suoi testi?
Oppure, come sembra dalle voci, perché insulta qualche collega?
E' vero, i contenuti violenti allontanano utenti dalle piattaforme ma in questo caso parliamo di un fenomeno mediatico (seppur al 99%, effimero, quindi destinato, prima o poi, ad eclissarsi scomparendo nel nulla).
venerdì 18 maggio 2018
Facebook Introduce Tre Novità Tra Cui I Messaggi Vocali
Diverse sono state le novità introdotte da Facebook: in primo luogo la possibilità di salvare foto e video direttamente nel cloud di Facebook, la seconda è dedicata all'invio di messaggi vocali e l'ultima consente di archiviare le Storie di Facebook preferite.
Le nuove funzionalità sono disponibili in India e saranno successivamente disponibili nel resto del mondo.
Due delle tre funzioni potranno essere attivate tramite la sezione fotocamera integrata nell'app ufficiale: sarà presente, in primo luogo, un'opzione per caricare le foto e i video nel cloud di Facebook, liberando spazio sul dispositivo.
Questa funzione non è un caso che sia stata lanciata per prima in India, poiché la maggior parte degli smartphone venduti nel Paese sono dispositivi di fascia media-bassa con poco spazio di memoria.
Sempre tramite l'app fotocamera sarà possibile condividere messaggi vocali.
La possibilità di registrare la propria voce, non è solo un modo veloce e semplice per condividere una storia, ma sostituisce anche la necessità di scaricare una tastiera nella propria lingua e soprattutto non richiede competenze di scrittura.
L'archiviazione delle storie, da ultimo, sarà attivata nelle prossime settimane e permetterà di superare l'attuale limite delle 24 ore, dopo le quali le storie vengono eliminate.
Le nuove funzionalità sono disponibili in India e saranno successivamente disponibili nel resto del mondo.
Due delle tre funzioni potranno essere attivate tramite la sezione fotocamera integrata nell'app ufficiale: sarà presente, in primo luogo, un'opzione per caricare le foto e i video nel cloud di Facebook, liberando spazio sul dispositivo.
Questa funzione non è un caso che sia stata lanciata per prima in India, poiché la maggior parte degli smartphone venduti nel Paese sono dispositivi di fascia media-bassa con poco spazio di memoria.
Sempre tramite l'app fotocamera sarà possibile condividere messaggi vocali.
La possibilità di registrare la propria voce, non è solo un modo veloce e semplice per condividere una storia, ma sostituisce anche la necessità di scaricare una tastiera nella propria lingua e soprattutto non richiede competenze di scrittura.
L'archiviazione delle storie, da ultimo, sarà attivata nelle prossime settimane e permetterà di superare l'attuale limite delle 24 ore, dopo le quali le storie vengono eliminate.
Facebook Cancella 583 Milioni Di Profili: Violenza, Spam e Terrorismo
Nei primi mesi del 2018, pare che Facebook abbia rimosso 583 milioni di profili falsi nei minuti successivi alla loro creazione.
836 milioni di contenuti SPAM sono stati rimossi (99% grazie all'uso di bot automatici), 21 milioni di nudo e pornografia (95%), 3.4 milioni con contenuti violenti (85%) e 1.9 milioni inerenti terrorismo (99%).
Le % indicano i contenuti rimossi automaticamente dai bot senza alcuna segnalazione da parte degli utenti.
Le difficoltà maggiori sono state sicuramente le differenze linguistiche.
Motivo per cui, ad esempio, un mese fa Zuckerberg ha dovuto assumere dozzine di revisori di lingua birmana per arginare la diffusione di messaggi d’odio contro la minoranza musulmana dei Rohingya in Myanmar.
Inoltre, Facebook ha rimosso altre 200 applicazioni che potrebbero aver usato i dati degli utenti in modo illecito, come ha fatto Cambridge Analytica, fra le quali le italiane CubeYou e Guard.Social. Pare che MyPersonality abbia esposto le informazioni di più di 3 milioni di persone.
Oltre ai 583 milioni di account falsi eliminati (la maggior parte dei quali bloccati entro pochi minuti dalla loro creazione) si aggiungono "i milioni di tentativi quotidiani di creazione di account falsi" e la stima che esistano ancora circa il 4% (sul totale degli iscritti) di account fake.
C’è quindi ancora molto lavoro da fare per prevenire gli abusi in parte perché l’intelligenza artificiale, pur essendo una tecnologia promettente, è ancora molto lontana dall’essere efficace per tutti i contenuti che violano le regole della community.
Più precisamente, la tecnologia necessita di un gran numero di dati di supporto per riuscire a riconoscere modelli significativi di comportamento.
Inoltre, in molte aree (anche se si tratta solo di spam, pornografia o account falsi) troll e criminali sono particolarmente sofisticati e cambiano continuamente tecniche di diffusione di questi contenuti (e di creazione di nuovi account), proprio per eludere i controlli automatici.
836 milioni di contenuti SPAM sono stati rimossi (99% grazie all'uso di bot automatici), 21 milioni di nudo e pornografia (95%), 3.4 milioni con contenuti violenti (85%) e 1.9 milioni inerenti terrorismo (99%).
Le % indicano i contenuti rimossi automaticamente dai bot senza alcuna segnalazione da parte degli utenti.
Le difficoltà maggiori sono state sicuramente le differenze linguistiche.
Motivo per cui, ad esempio, un mese fa Zuckerberg ha dovuto assumere dozzine di revisori di lingua birmana per arginare la diffusione di messaggi d’odio contro la minoranza musulmana dei Rohingya in Myanmar.
Inoltre, Facebook ha rimosso altre 200 applicazioni che potrebbero aver usato i dati degli utenti in modo illecito, come ha fatto Cambridge Analytica, fra le quali le italiane CubeYou e Guard.Social. Pare che MyPersonality abbia esposto le informazioni di più di 3 milioni di persone.
Oltre ai 583 milioni di account falsi eliminati (la maggior parte dei quali bloccati entro pochi minuti dalla loro creazione) si aggiungono "i milioni di tentativi quotidiani di creazione di account falsi" e la stima che esistano ancora circa il 4% (sul totale degli iscritti) di account fake.
C’è quindi ancora molto lavoro da fare per prevenire gli abusi in parte perché l’intelligenza artificiale, pur essendo una tecnologia promettente, è ancora molto lontana dall’essere efficace per tutti i contenuti che violano le regole della community.
Più precisamente, la tecnologia necessita di un gran numero di dati di supporto per riuscire a riconoscere modelli significativi di comportamento.
Inoltre, in molte aree (anche se si tratta solo di spam, pornografia o account falsi) troll e criminali sono particolarmente sofisticati e cambiano continuamente tecniche di diffusione di questi contenuti (e di creazione di nuovi account), proprio per eludere i controlli automatici.
lunedì 14 maggio 2018
Spettro Elettromagnetico Di Dispositivi Tecnologici e Non: Bande e Frequenze
In acustica, la Frequenza è il numero che definisce quante volte al secondo oscilla un onda sonora (cioè l'inverso del Periodo T), si misura infatti in cicli al secondo, Hertz (Hz) in quanto scoperti dal fisico tedesco Heinrich Hertz (allo stesso si deve il concetto di onde elettromagnetiche, anch'esse si misurano in questo modo ma oscillano a frequenze ben maggiori).
I suoni in natura non sono caratterizzati da una singola frequenza con una sola ampiezza, ma da molte frequenze (e con un’ampiezza diversa).
Ciò rende diversi i suoni percepiti da due strumenti musicali diversi (anche se la nota suonata è la stessa).
Un accordatore per chitarra elettrica darà un tono puro (singola frequenza ed ampiezza).
La voce umana invece è una forma d'onda complessa.
Lo spettro di frequenza di una forma d’onda complessa è caratterizzato da molte componenti in frequenza, ciascuna con una diversa ampiezza.
ALTE E BASSE FREQUENZE
Suoni alti ed acuti, ad esempio un violino, un fischio, un sibilo, rombo di un motore che accelera (fa moti giri al secondo) sono alte frequenze.
Suoni gravi, bassi, come un trombone, un basso elettrico, un tuono in lontananza, le note prodotte da una chitarra (hanno un range di frequenze che va da 82 a 698 Hz) o un motore al minimo, sono basse frequenze.
I Router Wi-Fi hanno frequenze di 2.4 GHz (hanno il vantaggio di superare meglio gli ostacoli ma è più soggetto a disturbi ed interferenze, quali: altri Wi-Fi presenti in prossimità, telefoni cordless, bluetooth, trasmettitori per l'apertura di porte e cancelli automatici, etc) e 5 GHz (velocità di connessione maggiore ma il raggio di copertura della rete è molto minore).
Riguardo la telefonia mobile il 3 G, funziona con le bande da 900 MHz e 2100 MHz; il 4 G LTE "viaggia" su frequenze degli 800 (simili alle TV), 1800 e 2600 MHz (lo LTE advanced, invece, sfrutta la banda da 1500 MHz).
Il 5 G usa frequenze dai 3,4 ai 3,8 GHz con bande tra i 24 e i 28 GHz.
Le tecnologie RFID (Radio-Frequency Identification, identificazione in radiofrequenza) e NFC (Near Field Communication, comunicazione a corto raggio) utilizzati primariamente in ambito industriale, all'interno di magazzini per identificare bancali di merce oppure per pagamenti contactless (o per scambio dati a brevissima distanza, non più di una decina di centimetri) utilizzano frequenze radio similari. I chip a radiofrequenza possono lavorare su tre diverse bande, a seconda del ruolo che saranno chiamati a "svolgere": 130 kHz circa (bassa frequenza); 13,56 MHz (alta frequenza) e 860 MHz (ultra alta frequenza).
I chip NFC, invece, sfruttano esclusivamente la banda da 13,56 MHz.
A livello di sirene, ci sono alcune che raggiungono i 2500 Hz (127 dB).
Nella propagazione in aria, le basse frequenze hanno un “vantaggio” rispetto alla parte più alta dello spettro.
L’aria è un ottimo assorbente acustico alle alte frequenze, quindi produce una attenuazione di diversi decibel per distanze di alcune decine di metri.
Ad esempio per una distanza di 50 m alla frequenza di 10 kHz si possono avere tra sino a 14 dB di attenuazione a seconda dell’umidità dell’aria.
Questo è uno dei motivi per cui da una discoteca, in lontananza, si sentono maggiormente i "bassi" rispetto al resto della musica diffusa.
SEGNALI AUDIO E CAMPIONAMENTI
A livello di audio, si definiscono 4 zone, dette tecnicamente bande di frequenza: i bassi (20-200 Hz), i medio-bassi (200-1000 Hz), i medio-alti (1000-5000 Hz) e gli alti (5000-20000 Hz).
Il nostro apparato uditivo è in grado di percepire suoni compresi tra i 20 e i 20000 Hz.
Ciò ci permette di definire ultrasuoni quelli che oscillano a più di 20000 Hz e infrasuoni quelli sotto i 20 Hz (entrambi non sono percepibili).
Per poter registrare il segnale su un supporto digitale (ad esempio un CD audio) la frequenza di campionamento deve essere maggiore di 40 kHz (più precisamente 44.1 kHz, valore che soddisfa il teorema di Nyquist-Shannon e che consente di ricostruire fedelmente il segnale analogico di partenza, senza perdita di informazioni. Questo teorema afferma che la Frequenza di campionamento deve essere più del doppio della Frequenza più alta compresa nello spettro del segnale di partenza dal quale ricostruisco il suono).
Le frequenze di campionamento più comuni sono:
44.1 kHz (CD audio)
48.1 kHz (DVD)
88.2 kHz
96 kHz
192 kHz
Anche se le frequenze di campionamento più alte offrono una migliore resa sonora, ci sono dei problemi (tra cui maggiori carichi di lavoro per il processore, file audio più grandi).
Sarà quindi necessario qualche compromesso.
Per un home studio, la maggior parte delle persone utilizzano un’impostazione standard a 48 kHz.
Quando i bit vengono utilizzati per codificare informazioni, a ognuno di queste frequenze è assegnato un valore specifico.
Incrementando i bit, il numero di valori possibili cresce esponenzialmente.
4 Bit = 16 valori possibili
8 Bit = 256 valori possibili
16 Bit = 16.536 valori possibili
24 Bit = 16.777.215 valori possibili
A ogni valore è assegnato un’ampiezza specifica sull’onda sonora.
Alla fine questo comporta che a una maggiore profondità di bit equivale un minor rumore (ma maggiore spazio utilizzato).
Gli audio digitali utilizzano un metodo di compressione dati “lossy”, mp3, AAC e altri formati sono compressi.
Il processo di codifica viene effettuato sfruttando un principio dell’udito umano noto come “mascheramento uditivo“ (cioè vengono cancellate tantissime informazioni musicali, mantenendo comunque un livello accettabile di qualità sonora per la maggior parte degli ascoltatori).
L’esatta quantità di informazioni che verranno cancellate dipende dal bitrate del file.
Con i bitrate più alti, verranno rimossi meno dati e preservati più dettagli (l'informazione è maggiore ma maggiore è anche lo spazio occupato sul disco locale o CD).
Per esempio, con gli mp3:
128 kbit/s è il minimo raccomandato
256 kbit/s è il giusto compromesso per la maggior parte delle persone
320 kbit/s è il massimo bitrate possibile
I suoni in natura non sono caratterizzati da una singola frequenza con una sola ampiezza, ma da molte frequenze (e con un’ampiezza diversa).
Ciò rende diversi i suoni percepiti da due strumenti musicali diversi (anche se la nota suonata è la stessa).
Un accordatore per chitarra elettrica darà un tono puro (singola frequenza ed ampiezza).
La voce umana invece è una forma d'onda complessa.
Lo spettro di frequenza di una forma d’onda complessa è caratterizzato da molte componenti in frequenza, ciascuna con una diversa ampiezza.
ALTE E BASSE FREQUENZE
Suoni alti ed acuti, ad esempio un violino, un fischio, un sibilo, rombo di un motore che accelera (fa moti giri al secondo) sono alte frequenze.
Suoni gravi, bassi, come un trombone, un basso elettrico, un tuono in lontananza, le note prodotte da una chitarra (hanno un range di frequenze che va da 82 a 698 Hz) o un motore al minimo, sono basse frequenze.
I Router Wi-Fi hanno frequenze di 2.4 GHz (hanno il vantaggio di superare meglio gli ostacoli ma è più soggetto a disturbi ed interferenze, quali: altri Wi-Fi presenti in prossimità, telefoni cordless, bluetooth, trasmettitori per l'apertura di porte e cancelli automatici, etc) e 5 GHz (velocità di connessione maggiore ma il raggio di copertura della rete è molto minore).
Riguardo la telefonia mobile il 3 G, funziona con le bande da 900 MHz e 2100 MHz; il 4 G LTE "viaggia" su frequenze degli 800 (simili alle TV), 1800 e 2600 MHz (lo LTE advanced, invece, sfrutta la banda da 1500 MHz).
Il 5 G usa frequenze dai 3,4 ai 3,8 GHz con bande tra i 24 e i 28 GHz.
Le tecnologie RFID (Radio-Frequency Identification, identificazione in radiofrequenza) e NFC (Near Field Communication, comunicazione a corto raggio) utilizzati primariamente in ambito industriale, all'interno di magazzini per identificare bancali di merce oppure per pagamenti contactless (o per scambio dati a brevissima distanza, non più di una decina di centimetri) utilizzano frequenze radio similari. I chip a radiofrequenza possono lavorare su tre diverse bande, a seconda del ruolo che saranno chiamati a "svolgere": 130 kHz circa (bassa frequenza); 13,56 MHz (alta frequenza) e 860 MHz (ultra alta frequenza).
I chip NFC, invece, sfruttano esclusivamente la banda da 13,56 MHz.
A livello di sirene, ci sono alcune che raggiungono i 2500 Hz (127 dB).
Nella propagazione in aria, le basse frequenze hanno un “vantaggio” rispetto alla parte più alta dello spettro.
L’aria è un ottimo assorbente acustico alle alte frequenze, quindi produce una attenuazione di diversi decibel per distanze di alcune decine di metri.
Ad esempio per una distanza di 50 m alla frequenza di 10 kHz si possono avere tra sino a 14 dB di attenuazione a seconda dell’umidità dell’aria.
Questo è uno dei motivi per cui da una discoteca, in lontananza, si sentono maggiormente i "bassi" rispetto al resto della musica diffusa.
SEGNALI AUDIO E CAMPIONAMENTI
A livello di audio, si definiscono 4 zone, dette tecnicamente bande di frequenza: i bassi (20-200 Hz), i medio-bassi (200-1000 Hz), i medio-alti (1000-5000 Hz) e gli alti (5000-20000 Hz).
Il nostro apparato uditivo è in grado di percepire suoni compresi tra i 20 e i 20000 Hz.
Ciò ci permette di definire ultrasuoni quelli che oscillano a più di 20000 Hz e infrasuoni quelli sotto i 20 Hz (entrambi non sono percepibili).
Per poter registrare il segnale su un supporto digitale (ad esempio un CD audio) la frequenza di campionamento deve essere maggiore di 40 kHz (più precisamente 44.1 kHz, valore che soddisfa il teorema di Nyquist-Shannon e che consente di ricostruire fedelmente il segnale analogico di partenza, senza perdita di informazioni. Questo teorema afferma che la Frequenza di campionamento deve essere più del doppio della Frequenza più alta compresa nello spettro del segnale di partenza dal quale ricostruisco il suono).
Le frequenze di campionamento più comuni sono:
44.1 kHz (CD audio)
48.1 kHz (DVD)
88.2 kHz
96 kHz
192 kHz
Sarà quindi necessario qualche compromesso.
Per un home studio, la maggior parte delle persone utilizzano un’impostazione standard a 48 kHz.
Quando i bit vengono utilizzati per codificare informazioni, a ognuno di queste frequenze è assegnato un valore specifico.
Incrementando i bit, il numero di valori possibili cresce esponenzialmente.
4 Bit = 16 valori possibili
8 Bit = 256 valori possibili
16 Bit = 16.536 valori possibili
24 Bit = 16.777.215 valori possibili
A ogni valore è assegnato un’ampiezza specifica sull’onda sonora.
Alla fine questo comporta che a una maggiore profondità di bit equivale un minor rumore (ma maggiore spazio utilizzato).
Gli audio digitali utilizzano un metodo di compressione dati “lossy”, mp3, AAC e altri formati sono compressi.
Il processo di codifica viene effettuato sfruttando un principio dell’udito umano noto come “mascheramento uditivo“ (cioè vengono cancellate tantissime informazioni musicali, mantenendo comunque un livello accettabile di qualità sonora per la maggior parte degli ascoltatori).
L’esatta quantità di informazioni che verranno cancellate dipende dal bitrate del file.
Con i bitrate più alti, verranno rimossi meno dati e preservati più dettagli (l'informazione è maggiore ma maggiore è anche lo spazio occupato sul disco locale o CD).
Per esempio, con gli mp3:
128 kbit/s è il minimo raccomandato
256 kbit/s è il giusto compromesso per la maggior parte delle persone
320 kbit/s è il massimo bitrate possibile
domenica 13 maggio 2018
Analizzare Malfunzionamenti Sui Siti Internet Con DownDetector
Come si sa, i siti internet sono spesso soggetti a malfunzionamenti.
Si tratta di problemi di qualsiasi tipo che possono andare da: attacchi dos a difficoltà nel fare il login, passando per bug di app, malfunzionamenti e rallentamenti vari.
Un utile sito dove è possibile segnalare malfunzionamenti ed ovviamente controllare a cosa può essere dovuto un eventuale problema è: DownDetector
Tutti i dati dai siti sono tracciati ed aggiornati in tempo reale.
Il sito riporta (in base all'orario), a cosa sono dovuti i problemi:
Sono supportati diverse centinaia di siti: da Instagram a Facebook, passando per Google, Gmail, Outlook, Tim, Wind, SNAI, Amazon, Deezer, eBay, Sky, Yahoo, Dropbox, Tumblr, Mediaset, BWin, 3, Infostrada.
Si tratta di problemi di qualsiasi tipo che possono andare da: attacchi dos a difficoltà nel fare il login, passando per bug di app, malfunzionamenti e rallentamenti vari.
Un utile sito dove è possibile segnalare malfunzionamenti ed ovviamente controllare a cosa può essere dovuto un eventuale problema è: DownDetector
Tutti i dati dai siti sono tracciati ed aggiornati in tempo reale.
Il sito riporta (in base all'orario), a cosa sono dovuti i problemi:
Sono supportati diverse centinaia di siti: da Instagram a Facebook, passando per Google, Gmail, Outlook, Tim, Wind, SNAI, Amazon, Deezer, eBay, Sky, Yahoo, Dropbox, Tumblr, Mediaset, BWin, 3, Infostrada.
venerdì 11 maggio 2018
La Società Xapo Detiene Un Quindicesimo Di Tutti I Bitcoin Nel Mondo
Xapo è una compagnia di Honk Kong creata da Federico Murrone e Wences Caceres, entrata nel mercato dei Bitcoin nel 2014 (ed avente una licenza europea di trasferimento di soldi elettronici in Gibilterra nel 2017), avendo convertito un bunker svizzero in un impianto di deposito per Bitcoin.
Prima di allora la start-up aveva faticato ad ottenere i permessi necessari per operare a norma di legge.
Numerosi fondi di criptovalute utilizzano questo metodo di archiviazione, nonostante la mancanza di controllo completo sui fondi e l'impostazione più centralizzata di questo sistema rispetto ad opzioni cold storage come portafogli hardware.
"Chi non tiene le chiavi di persona le tiene su Xapo. Non le terrei in una banca nemmeno se mi pagassero!" ha dichiarato Ryan Radloff, CEO della piattaforma britannica d'investimento CoinShares.
Grazie alla travolgente domanda per sistemi cold storage di Bitcoin, oggi la compagnia possiede una quantità di fondi maggiore rispetto al 98% delle 5.670 banche presenti negli Stati uniti, secondo Bloomberg.
Ad oggi il servizio di deposito Bitcoin di Xapo detiene circa il 7% di tutti i Bitcoin del mondo, equivalenti ad oltre 10 miliardi di dollari.
Una terza fonte, vicina alla compagnia, ha confermato che tale cifra rappresenta "un'approssimazione accurata".
Prima di allora la start-up aveva faticato ad ottenere i permessi necessari per operare a norma di legge.
Numerosi fondi di criptovalute utilizzano questo metodo di archiviazione, nonostante la mancanza di controllo completo sui fondi e l'impostazione più centralizzata di questo sistema rispetto ad opzioni cold storage come portafogli hardware.
"Chi non tiene le chiavi di persona le tiene su Xapo. Non le terrei in una banca nemmeno se mi pagassero!" ha dichiarato Ryan Radloff, CEO della piattaforma britannica d'investimento CoinShares.
Grazie alla travolgente domanda per sistemi cold storage di Bitcoin, oggi la compagnia possiede una quantità di fondi maggiore rispetto al 98% delle 5.670 banche presenti negli Stati uniti, secondo Bloomberg.
Ad oggi il servizio di deposito Bitcoin di Xapo detiene circa il 7% di tutti i Bitcoin del mondo, equivalenti ad oltre 10 miliardi di dollari.
Una terza fonte, vicina alla compagnia, ha confermato che tale cifra rappresenta "un'approssimazione accurata".
giovedì 10 maggio 2018
La Storia Dell'Electronic Frontier Foundation: Perchè Nasce e a Cosa Serve?
L'Electronic Frontier Foundation venne fondata nel 1990 da Mitch Kapor, John Gilmore e John Barlow in California (precisamente a San Francisco, poi si spostarono a Washington, per poi ritornare in California).
I fondatori erano noti frequentatori della comunità online WELL (la prima della storia d'internet).
Steve Wozniak (ex Hacker ed aiutante di Steve Jobs alla Apple) fu parte integrante del progetto, essendo stato tra gli investitori.
Nel 1993, l'attenzione della E.F.F. si focalizzò sull'influenzare la politica nazionale, un business che non fu interamente condiviso da parti dell'organizzazione.
Due anni dopo, sotto la direzione di Lori Fena, dopo un lieve decadimento e sforzandosi di ri-raggruppare e rifocalizzarsi sull'appoggio della propria base l'organizzazione spostò i propri uffici a San Francisco e aprì la propria sede in corrispondenza della residenza di John Gilmore a Toad Hall, e poco più tardi si spostò presso l'edificio Hamm al N.1550 di Bryant Street.
Recentemente l'organizzazione si è impegnata nella difesa di Edward Felten, Jon Johansen e Dmitry Sklyarov.
La creazione dell'organizzazione che si batteva per libertà civili connesse a PC ed Internet, fu motivata sostanzialmente da due casi:
1) La sentenza contro la Steve Jackson Games messa in atto dagli United States Secret Service all'inizio del 1990 (cioè sai servizi segreti americani).
La società produttrice di giochi da tavolo era probabilmente collegata a diversi Hacker (che poi furono arrestati nella nota Operazione Sundevil) e subì diversi raid a sorpresa e sequestri nel 1990.
I Servizi Segreti erano alla ricerca di un manuale (E911) e presero un clamoroso abbaglio sequestrando giochi ed altre pubblicazioni (tra le altre GURPS Cyberpunks) rischiando di far finire la società in bancarotta.
La società denunciò i servizi segreti e vinse la causa nel 1993.
Questo fu il principale motivo per cui nacque l'E.F.F.
2) Il secondo grande caso di cui si occupò la E.F.F. fu quello Bernstein v. United States condotto da Cindy Cohn, nel quale il programmatore e professore Daniel Bernstein citò il governo per il permesso di pubblicare il suo software di cifratura, Snuffle (conosciuto anche come cifrario a flusso ChaCha), e le istruzioni per l'uso.
Bernstein nel 1996 aveva pubblicato su internet le sue formule per la realizzazione di un
programma di crittografia e per questo era stato accusato, dal governo, di aver esportato armi
da guerra.
La Corte Distrettuale e quella Federale si pronunciarono affermando che le restrizioni imposte all'esportazione dell'algoritmo crittografato, ideato da Bernstein, erano troppo severe.
L’Electronic Frontier Foundation si affiancò a Daniel, offrendogli collaborazione e sostegno e denunciando, al tempo stesso, il governo per la violazione dei suoi diritti civili.
In particolare, ciò che si riteneva inibita era la libertà d’espressione.
Quegli stessi software che il Governo riteneva illegali avrebbero garantito maggiore protezione in
riferimento a truffe e atti di vandalismo.
La diatriba si aprì quando a Bernstein vennero inibiti tutti gli atti di divulgazione relativi tanto al software, inteso quale codice sorgente, quanto alla documentazione riguardante istruzioni,
algoritmi e pensiero scientifico.
Il 30 giugno dello stesso anno Bernstein si sottomise alle decisioni indicate dal Dipartimento di Stato attuate attraverso Comodity Jurisdiction (CJ).
In tale sede si stabiliva che Snuffle 5.0 (comprendente Snuffle.C e Unsnuffle.C), insieme alla
documentazione accademica che descriveva il sistema, avrebbe dovuto essere
sottoposto ad un controllo di conformità rispetto alle previsioni dell’ITAR.
L’ODTC stabilì che Snuffle 5.0 era da considerare uno strumento di difesa compreso nella “Category XIII” dell’ITAR (in particolare dell’USML) e di conseguenza necessitava, prima di essere esportato, dell’apposita licenza da parte del Dipartimento di Stato.
Processi, controprocessi, denunce, incostituzionalità di leggi, cavilli giudiziari, parziali concessioni e così per i successivi 10 anni.
I fondatori erano noti frequentatori della comunità online WELL (la prima della storia d'internet).
Steve Wozniak (ex Hacker ed aiutante di Steve Jobs alla Apple) fu parte integrante del progetto, essendo stato tra gli investitori.
Nel 1993, l'attenzione della E.F.F. si focalizzò sull'influenzare la politica nazionale, un business che non fu interamente condiviso da parti dell'organizzazione.
Due anni dopo, sotto la direzione di Lori Fena, dopo un lieve decadimento e sforzandosi di ri-raggruppare e rifocalizzarsi sull'appoggio della propria base l'organizzazione spostò i propri uffici a San Francisco e aprì la propria sede in corrispondenza della residenza di John Gilmore a Toad Hall, e poco più tardi si spostò presso l'edificio Hamm al N.1550 di Bryant Street.
Recentemente l'organizzazione si è impegnata nella difesa di Edward Felten, Jon Johansen e Dmitry Sklyarov.
La creazione dell'organizzazione che si batteva per libertà civili connesse a PC ed Internet, fu motivata sostanzialmente da due casi:
1) La sentenza contro la Steve Jackson Games messa in atto dagli United States Secret Service all'inizio del 1990 (cioè sai servizi segreti americani).
La società produttrice di giochi da tavolo era probabilmente collegata a diversi Hacker (che poi furono arrestati nella nota Operazione Sundevil) e subì diversi raid a sorpresa e sequestri nel 1990.
I Servizi Segreti erano alla ricerca di un manuale (E911) e presero un clamoroso abbaglio sequestrando giochi ed altre pubblicazioni (tra le altre GURPS Cyberpunks) rischiando di far finire la società in bancarotta.
La società denunciò i servizi segreti e vinse la causa nel 1993.
Questo fu il principale motivo per cui nacque l'E.F.F.
2) Il secondo grande caso di cui si occupò la E.F.F. fu quello Bernstein v. United States condotto da Cindy Cohn, nel quale il programmatore e professore Daniel Bernstein citò il governo per il permesso di pubblicare il suo software di cifratura, Snuffle (conosciuto anche come cifrario a flusso ChaCha), e le istruzioni per l'uso.
Bernstein nel 1996 aveva pubblicato su internet le sue formule per la realizzazione di un
programma di crittografia e per questo era stato accusato, dal governo, di aver esportato armi
da guerra.
La Corte Distrettuale e quella Federale si pronunciarono affermando che le restrizioni imposte all'esportazione dell'algoritmo crittografato, ideato da Bernstein, erano troppo severe.
L’Electronic Frontier Foundation si affiancò a Daniel, offrendogli collaborazione e sostegno e denunciando, al tempo stesso, il governo per la violazione dei suoi diritti civili.
In particolare, ciò che si riteneva inibita era la libertà d’espressione.
Quegli stessi software che il Governo riteneva illegali avrebbero garantito maggiore protezione in
riferimento a truffe e atti di vandalismo.
La diatriba si aprì quando a Bernstein vennero inibiti tutti gli atti di divulgazione relativi tanto al software, inteso quale codice sorgente, quanto alla documentazione riguardante istruzioni,
algoritmi e pensiero scientifico.
Il 30 giugno dello stesso anno Bernstein si sottomise alle decisioni indicate dal Dipartimento di Stato attuate attraverso Comodity Jurisdiction (CJ).
In tale sede si stabiliva che Snuffle 5.0 (comprendente Snuffle.C e Unsnuffle.C), insieme alla
documentazione accademica che descriveva il sistema, avrebbe dovuto essere
sottoposto ad un controllo di conformità rispetto alle previsioni dell’ITAR.
L’ODTC stabilì che Snuffle 5.0 era da considerare uno strumento di difesa compreso nella “Category XIII” dell’ITAR (in particolare dell’USML) e di conseguenza necessitava, prima di essere esportato, dell’apposita licenza da parte del Dipartimento di Stato.
Processi, controprocessi, denunce, incostituzionalità di leggi, cavilli giudiziari, parziali concessioni e così per i successivi 10 anni.
lunedì 7 maggio 2018
Generatori Termoelettrici A Radioisotopi: Funzionamento Delle Batterie Nucleari
Un generatore termoelettrico a radioisotopi (RTG) è un generatore nucleare di energia elettrica basato sul decadimento di isotopi radioattivi.
Principalmente viene utilizzato Plutonio-238. La durata di queste pile (batterie) arriva a centinaia di anni! I generatori RTG sono stati usati a partire dalle missioni Apollo sulla Luna nel campo dell'esplorazione spaziale. Il primo RTG lanciato nello spazio dalla NASA risale al 1961 (anche se i primi studi risalgono agli anni 50).
Gli RTG alimentano le sonde Voyager, lanciate nel 1977, attualmente alla distanza di oltre 16 miliardi di chilometri. Ma anche molte altre missioni NASA più recenti si reggono sulle batterie nucleari, dal rover marziano Curiosity alla sonda New Horizons, che ha visitato Plutone nel 2015.
La sonda della NASA Cassini, ad esempio, ha usato un RTG per viaggiare verso il sistema di Saturno e ne trae energia per compiere manovre importanti e mantenere al caldo la strumentazione.
Questo tipo di sistemi sono implementati e studiati dal Jet Propulsion Laboratory (JPL) della NASA.
Per rendere l'idea il Multi-Mission Radioisotope Thermoelectric Generator (MMRTG), usato per il Mars Science Laboratory, è composto da 8 moduli e fornisce 120 Watt di potenza elettrica.
FUNZIONAMENTO
Il sistema contiene una fonte di calore ed un radioisotopo (il Plutonio-238 come detto), che si riscalda a causa del proprio decadimento radioattivo. Il calore è trasformato in elettricità da un convertitore termoelettrico che sfrutta l'effetto Seebeck (ovvero la trasformazione avviene per differenza di temperatura. Una forza elettromotrice, F.E.M., è prodotta dalla diffusione di elettroni attraverso l'unione di due differenti materiali che formano un circuito quando i capi del convertitore si trovano a temperature differenti). I moduli sono progettati per resistere ad esplosioni, Temperature (tramite uno schermo in grafite), incendio del veicolo di lancio, rientro in atmosfera seguito da impatto sul terreno o in acqua. Invece il combustibile è in forma di diossido di Plutonio-238, un materiale ceramico resistente alla rottura. I RTG sono spesso montati a bordo di satelliti.
L'idea è quella di viaggiare nello spazio profondo sempre più lontano, anche là dove l’energia fornita dal Sole diventa troppo debole, senza ovviamente potersi fermare a fare rifornimento.
JPL della NASA: "Per andare avanti nell’esplorazione del Sistema solare, abbiamo necessità di un sistema d’alimentazione affidabile e di lunga durata"
PLUTONIO-238, TEMPO CARATTERISTICO, DI DIMEZZAMENTO E TIPI DI RADIAZIONI
Sappiamo che la maggiorparte degli atomi che costituiscono la materia è stabile.
Poi ci sono altri atomi (ed è il caso del Plutonio-238, Uranio-235, Radon-218, Torio-232 etc) che sono instabili e si trasformano in altri atomi spontaneamente tramite un processo noto come decadimento.
Infatti ad ogni atomo di questo tipo è associato un tempo caratteristico (vita media) che rappresenta il tempo vissuto prima di trasformarsi in un altro isotopo.
Esso è collegato al tempo di dimezzamento, cioè al tempo necessario perchè una popolazione di questi atomi si dimezzi nel tempo (per rendere l'idea: il Radon-218 si dimezza ogni 1.9 millisecondi emettendo radiazioni Alfa, invece il Rubidio-87 ogni 48.8 miliardi anni emettendo radiazioni Beta. Ne consegue che sulla terra il Rubidio-87 è nelle stesse quantità dall'esplosione del Big Bang, visto che la terra dovrebbe essersi formata 14 miliardi di anni fa. L'Uranio-238 ha un tempo di dimezzamento di quasi 5 miliardi di anni quindi le sue quantità odierne sono di circa un terzo rispetto alle quantità naturali dall'inizio del Big Bang).
Il Plutonio-238, al contrario del Plutonio-239 utilizzato nelle armi nucleari a fissione (questo ha una vita di 24 mila anni!), ha una vita naturale (tempo caratteristico) di circa 87 anni, e fornisce sufficiente calore per un periodo di tempo adeguato alla durata di questo tipo di missioni.
La sua produzione può avvenire in diversi modi, come per esempio estraendolo dalle scorie e dal combustibile esaurito delle centrali nucleari, cosa che ha deciso di fare ESA, ma il costo di questo processo è piuttosto alto.
Quando decade naturalmente in Uranio-234 emana una grande quantità di calore, abbastanza per essere sfruttata come energia elettrica in batterie nucleari.
Il Plutonio-238 è stato scelto sia per sua efficienza (produce un'elevata quantità di energia per un grammo di materiale) e sia perché è relativamente sicuro dato che emette solo particelle alfa.
Si tratta di una forma di radiazione con un basso potere di penetrazione contro le quali ci si può proteggere piuttosto facilmente.
Le trasformazioni di atomi radioattivi sono detti decadimenti o disintegrazioni, perchè il nucleo dell'atomo che si trasforma perde alcune particelle che lo costituiscono: un nucleo di Elio (radiazione alfa con carica positiva), elettroni (radiazione beta con carica negativa) e fotoni (radiazione gamma con carica neutra).
Si parla di radiazioni corpuscolari (alfa e beta) ed elettromagnetiche (gamma. Anche le onde radio e la luce sono radiazioni elettromagnetiche ma non sono radioattive per via della bassa ionizzazione).
Le radiazioni si distinguono inoltre per la loro capacità di penetrare i materiali (ciò dipende anche dall'energia).
Le particelle alfa sono schermate semplicemente dalla pelle umana o da un foglio di carta, quelle beta da alcuni mm di alluminio, quelle più penetranti e pericolose sono le gamma (che è possibile schermare con grandi spessori di cemento o piombo. O utilizzando schermi ad Uranio Impoverito che emette solo radiazioni alfa, il problema è la sua alta tossicità chimica).
Per i generatori nucleari, un metodo più economico è l’estrazione di Nettunio-237 dal combustibile esausto.
L'isotopo Nettunio-237 è inviato a Oak Ridge nel Tennessee (dove veniva prodotto l'Uranio per le bombe atomiche della seconda guerra mondiale).
Qui, nel campus ORNL, il Nettunio-237 riceve le prime lavorazioni, confezionato sotto forma di pellet ed inviato al High Flux Isotope Reactor.
Quindi, il Nettunio-237 viene esposto nel reattore e bombardato per 25 giorni, assorbendo però solo ridotte % di neutroni. Quello che si ottiene è un po' di Nettunio-238 che, a sua volta, decade rapidamente in Plutonio-238.
In ogni caso, il ritmo di produzione del Plutonio arriverà a circa 1,5 kg all’anno (circa 3,3 libbre), fornendo sufficiente materiale da mettere missioni spaziali dopo il 2019.
Secondo quanto dichiarato dal Dipartimento dell’Energia, le stime indicano che ogni ASRG genera tra 130 e 140 Watt di elettricità con 1 Kg (circa 2,2 libbre) di Plutonio-238, mentre gli RTG di qualche anno fa impiegavano una quantità più che quadrupla di materiale per generare la stessa potenza.
In parole povere l'idea è sempre quella: maggiore efficienza ed un utilizzo minore di Plutonio.
SKUTTERUDITE COME MATERIALE TERMOELETTRICO
In tempi recenti, un altro materiale molto usato è la Skutterudite, che promette il passaggio a una nuova generazione di batterie nucleari per missioni spaziali: dagli attuali generatori termoelettrici a radioisotopi multi-missione (MMRTG) agli eMMRTG (generatori potenziati).
Le versioni potenziate con la Skutterudite sarebbero in grado di fornire il 25 % di potenza in più rispetto a quanto facesse, a inizio missione, il generatore a bordo di Curiosity. Inoltre, degradando molto più lentamente dei materiali utilizzati negli MMRTG attuali, al termine dei 17 anni di durata prevista della missione avrebbero almeno il 50 % di potenza in più.
Con un sistema termoelettrico più efficiente è possibile utilizzare meno Plutonio.
Il principio di funzionamento è sempre lo stesso, ed è quello della termocoppia: dispositivi in grado di convertire una differenza di temperatura in differenza di potenziale elettrico.
Le Skutteruditi si comportano come i metalli quanto a conducibilità elettrica, ma come il vetro quanto a conducibilità termica. E generano una quantità considerevole di energia elettrica.
Di termocoppie, l’MMRTG a bordo di Curiosity ne monta 768, tutte disposte attorno a un’unica struttura centrale, la sorgente di calore. Nei generatori eMMRTG di nuova generazione il numero di termocoppie resta identico, ma cambia il materiale appunto.
Principalmente viene utilizzato Plutonio-238. La durata di queste pile (batterie) arriva a centinaia di anni! I generatori RTG sono stati usati a partire dalle missioni Apollo sulla Luna nel campo dell'esplorazione spaziale. Il primo RTG lanciato nello spazio dalla NASA risale al 1961 (anche se i primi studi risalgono agli anni 50).
Gli RTG alimentano le sonde Voyager, lanciate nel 1977, attualmente alla distanza di oltre 16 miliardi di chilometri. Ma anche molte altre missioni NASA più recenti si reggono sulle batterie nucleari, dal rover marziano Curiosity alla sonda New Horizons, che ha visitato Plutone nel 2015.
La sonda della NASA Cassini, ad esempio, ha usato un RTG per viaggiare verso il sistema di Saturno e ne trae energia per compiere manovre importanti e mantenere al caldo la strumentazione.
Questo tipo di sistemi sono implementati e studiati dal Jet Propulsion Laboratory (JPL) della NASA.
Per rendere l'idea il Multi-Mission Radioisotope Thermoelectric Generator (MMRTG), usato per il Mars Science Laboratory, è composto da 8 moduli e fornisce 120 Watt di potenza elettrica.
FUNZIONAMENTO
Il sistema contiene una fonte di calore ed un radioisotopo (il Plutonio-238 come detto), che si riscalda a causa del proprio decadimento radioattivo. Il calore è trasformato in elettricità da un convertitore termoelettrico che sfrutta l'effetto Seebeck (ovvero la trasformazione avviene per differenza di temperatura. Una forza elettromotrice, F.E.M., è prodotta dalla diffusione di elettroni attraverso l'unione di due differenti materiali che formano un circuito quando i capi del convertitore si trovano a temperature differenti). I moduli sono progettati per resistere ad esplosioni, Temperature (tramite uno schermo in grafite), incendio del veicolo di lancio, rientro in atmosfera seguito da impatto sul terreno o in acqua. Invece il combustibile è in forma di diossido di Plutonio-238, un materiale ceramico resistente alla rottura. I RTG sono spesso montati a bordo di satelliti.
L'idea è quella di viaggiare nello spazio profondo sempre più lontano, anche là dove l’energia fornita dal Sole diventa troppo debole, senza ovviamente potersi fermare a fare rifornimento.
JPL della NASA: "Per andare avanti nell’esplorazione del Sistema solare, abbiamo necessità di un sistema d’alimentazione affidabile e di lunga durata"
PLUTONIO-238, TEMPO CARATTERISTICO, DI DIMEZZAMENTO E TIPI DI RADIAZIONI
Sappiamo che la maggiorparte degli atomi che costituiscono la materia è stabile.
Poi ci sono altri atomi (ed è il caso del Plutonio-238, Uranio-235, Radon-218, Torio-232 etc) che sono instabili e si trasformano in altri atomi spontaneamente tramite un processo noto come decadimento.
Infatti ad ogni atomo di questo tipo è associato un tempo caratteristico (vita media) che rappresenta il tempo vissuto prima di trasformarsi in un altro isotopo.
Esso è collegato al tempo di dimezzamento, cioè al tempo necessario perchè una popolazione di questi atomi si dimezzi nel tempo (per rendere l'idea: il Radon-218 si dimezza ogni 1.9 millisecondi emettendo radiazioni Alfa, invece il Rubidio-87 ogni 48.8 miliardi anni emettendo radiazioni Beta. Ne consegue che sulla terra il Rubidio-87 è nelle stesse quantità dall'esplosione del Big Bang, visto che la terra dovrebbe essersi formata 14 miliardi di anni fa. L'Uranio-238 ha un tempo di dimezzamento di quasi 5 miliardi di anni quindi le sue quantità odierne sono di circa un terzo rispetto alle quantità naturali dall'inizio del Big Bang).
Il Plutonio-238, al contrario del Plutonio-239 utilizzato nelle armi nucleari a fissione (questo ha una vita di 24 mila anni!), ha una vita naturale (tempo caratteristico) di circa 87 anni, e fornisce sufficiente calore per un periodo di tempo adeguato alla durata di questo tipo di missioni.
La sua produzione può avvenire in diversi modi, come per esempio estraendolo dalle scorie e dal combustibile esaurito delle centrali nucleari, cosa che ha deciso di fare ESA, ma il costo di questo processo è piuttosto alto.
Quando decade naturalmente in Uranio-234 emana una grande quantità di calore, abbastanza per essere sfruttata come energia elettrica in batterie nucleari.
Il Plutonio-238 è stato scelto sia per sua efficienza (produce un'elevata quantità di energia per un grammo di materiale) e sia perché è relativamente sicuro dato che emette solo particelle alfa.
Si tratta di una forma di radiazione con un basso potere di penetrazione contro le quali ci si può proteggere piuttosto facilmente.
Le trasformazioni di atomi radioattivi sono detti decadimenti o disintegrazioni, perchè il nucleo dell'atomo che si trasforma perde alcune particelle che lo costituiscono: un nucleo di Elio (radiazione alfa con carica positiva), elettroni (radiazione beta con carica negativa) e fotoni (radiazione gamma con carica neutra).
Si parla di radiazioni corpuscolari (alfa e beta) ed elettromagnetiche (gamma. Anche le onde radio e la luce sono radiazioni elettromagnetiche ma non sono radioattive per via della bassa ionizzazione).
Le radiazioni si distinguono inoltre per la loro capacità di penetrare i materiali (ciò dipende anche dall'energia).
Le particelle alfa sono schermate semplicemente dalla pelle umana o da un foglio di carta, quelle beta da alcuni mm di alluminio, quelle più penetranti e pericolose sono le gamma (che è possibile schermare con grandi spessori di cemento o piombo. O utilizzando schermi ad Uranio Impoverito che emette solo radiazioni alfa, il problema è la sua alta tossicità chimica).
Per i generatori nucleari, un metodo più economico è l’estrazione di Nettunio-237 dal combustibile esausto.
L'isotopo Nettunio-237 è inviato a Oak Ridge nel Tennessee (dove veniva prodotto l'Uranio per le bombe atomiche della seconda guerra mondiale).
Qui, nel campus ORNL, il Nettunio-237 riceve le prime lavorazioni, confezionato sotto forma di pellet ed inviato al High Flux Isotope Reactor.
Quindi, il Nettunio-237 viene esposto nel reattore e bombardato per 25 giorni, assorbendo però solo ridotte % di neutroni. Quello che si ottiene è un po' di Nettunio-238 che, a sua volta, decade rapidamente in Plutonio-238.
In ogni caso, il ritmo di produzione del Plutonio arriverà a circa 1,5 kg all’anno (circa 3,3 libbre), fornendo sufficiente materiale da mettere missioni spaziali dopo il 2019.
Secondo quanto dichiarato dal Dipartimento dell’Energia, le stime indicano che ogni ASRG genera tra 130 e 140 Watt di elettricità con 1 Kg (circa 2,2 libbre) di Plutonio-238, mentre gli RTG di qualche anno fa impiegavano una quantità più che quadrupla di materiale per generare la stessa potenza.
In parole povere l'idea è sempre quella: maggiore efficienza ed un utilizzo minore di Plutonio.
SKUTTERUDITE COME MATERIALE TERMOELETTRICO
In tempi recenti, un altro materiale molto usato è la Skutterudite, che promette il passaggio a una nuova generazione di batterie nucleari per missioni spaziali: dagli attuali generatori termoelettrici a radioisotopi multi-missione (MMRTG) agli eMMRTG (generatori potenziati).
Le versioni potenziate con la Skutterudite sarebbero in grado di fornire il 25 % di potenza in più rispetto a quanto facesse, a inizio missione, il generatore a bordo di Curiosity. Inoltre, degradando molto più lentamente dei materiali utilizzati negli MMRTG attuali, al termine dei 17 anni di durata prevista della missione avrebbero almeno il 50 % di potenza in più.
Con un sistema termoelettrico più efficiente è possibile utilizzare meno Plutonio.
Il principio di funzionamento è sempre lo stesso, ed è quello della termocoppia: dispositivi in grado di convertire una differenza di temperatura in differenza di potenziale elettrico.
Le Skutteruditi si comportano come i metalli quanto a conducibilità elettrica, ma come il vetro quanto a conducibilità termica. E generano una quantità considerevole di energia elettrica.
Di termocoppie, l’MMRTG a bordo di Curiosity ne monta 768, tutte disposte attorno a un’unica struttura centrale, la sorgente di calore. Nei generatori eMMRTG di nuova generazione il numero di termocoppie resta identico, ma cambia il materiale appunto.
Altri articoli che potrebbero interessarti:
Come Svolgere Il Debug Di Un Software
Col termine “Debug” ci si riferisce agli eventuali errori (bug appunto) di un programma.
Gli errori possono essere di due tipi: sintattici (rilevati sempre dal compilatore in fase di compilazione del programma) e semantici (difficilmente rilevabili).
In quest'ultimo caso ci si riferisce ad un programma che "funziona", anche se non svolge la funzione voluta (ad esempio utilizzando un prodotto "*" al posto di una potenza "**". Il programma funziona ma io mi aspetterei un prodotto, invece il software svolge una potenza).
Dunque per "debuggare" manualmente un software verifico quali sono gli effetti che una data funzione mi dovrebbe dare.
Se la verifica fallisce, ho trovato l'errore.
Il programmatore quindi deve essere in grado, per ogni istruzione del proprio programma, di prevedere cosa farà tale istruzione.
Generalmente l’ambiente di sviluppo ci mette a disposizione una serie di funzionalità per: eseguire passo passo ogni istruzione, controllare lo “stato” del nostro programma, visualizzare il contenuto delle variabili e lo stack delle chiamate a funzione.
Premettendo che ogni Debug varia in base alle funzioni quindi all'ambiente di sviluppo, ogni programma in questa fase viene lanciato in modalità Debug (a indicare che è ancora sotto test)
Così facendo sarà possibile controllare istruzione per istruzione il vostro codice.
Cominciare il debug dall’inizio del programma può essere davvero complicato, in questi casi si usano i cosiddetti "breakpoints" (punti del programma che ci interessa monitorare).
Il programma viene eseguito normalmente fino al breakpoint, poi passa in “modalità debug”
I breakpoint possono essere associati a condizioni e altre proprietà configurabili (a seconda di un certo risultato o variabile, se uguale a 0, 1 e così via).
Vanno monitorati nomi, caratteri, espressioni, variabili.
Per svolgere un Debug con Visual Studio vi rimando a questa guida: Eseguire Un Debug Con Visual Studio (Visual Basic, C, C++, C#
Per Java: Debug Java (Guida)
Gli errori possono essere di due tipi: sintattici (rilevati sempre dal compilatore in fase di compilazione del programma) e semantici (difficilmente rilevabili).
In quest'ultimo caso ci si riferisce ad un programma che "funziona", anche se non svolge la funzione voluta (ad esempio utilizzando un prodotto "*" al posto di una potenza "**". Il programma funziona ma io mi aspetterei un prodotto, invece il software svolge una potenza).
Dunque per "debuggare" manualmente un software verifico quali sono gli effetti che una data funzione mi dovrebbe dare.
Se la verifica fallisce, ho trovato l'errore.
Il programmatore quindi deve essere in grado, per ogni istruzione del proprio programma, di prevedere cosa farà tale istruzione.
Generalmente l’ambiente di sviluppo ci mette a disposizione una serie di funzionalità per: eseguire passo passo ogni istruzione, controllare lo “stato” del nostro programma, visualizzare il contenuto delle variabili e lo stack delle chiamate a funzione.
Premettendo che ogni Debug varia in base alle funzioni quindi all'ambiente di sviluppo, ogni programma in questa fase viene lanciato in modalità Debug (a indicare che è ancora sotto test)
Così facendo sarà possibile controllare istruzione per istruzione il vostro codice.
Cominciare il debug dall’inizio del programma può essere davvero complicato, in questi casi si usano i cosiddetti "breakpoints" (punti del programma che ci interessa monitorare).
Il programma viene eseguito normalmente fino al breakpoint, poi passa in “modalità debug”
I breakpoint possono essere associati a condizioni e altre proprietà configurabili (a seconda di un certo risultato o variabile, se uguale a 0, 1 e così via).
Vanno monitorati nomi, caratteri, espressioni, variabili.
Per svolgere un Debug con Visual Studio vi rimando a questa guida: Eseguire Un Debug Con Visual Studio (Visual Basic, C, C++, C#
Per Java: Debug Java (Guida)
sabato 5 maggio 2018
Come Scaricare I Sottotitoli Da Youtube
Come tutti saprete, molti video su Youtube sono sottotitolati: spesso potrebbe essere comodo salvarli sul proprio PC.
Per salvare i sottotitoli da YouTube è possibile utilizzare il servizio online: DownSub
Basta andare sul sito, incollare l’indirizzo del video di YouTube e cliccare su Download.
Il sito rileva automaticamente i sottotitoli e ci fornisce il link per scaricarli sia nella lingua originale, sia in altre lingue tra cui l’italiano.
Il file è nel formato .srt che è quello utilizzato appunto per i sottotitoli.
Per convertire il file .srt in un normale file di testo ci si può servire poi del programma gratuito SubtitleEdit, che consente anche di eliminare le informazioni superlue come quelle relative alla
formattazione.
Per salvare i sottotitoli da YouTube è possibile utilizzare il servizio online: DownSub
Basta andare sul sito, incollare l’indirizzo del video di YouTube e cliccare su Download.
Il sito rileva automaticamente i sottotitoli e ci fornisce il link per scaricarli sia nella lingua originale, sia in altre lingue tra cui l’italiano.
Il file è nel formato .srt che è quello utilizzato appunto per i sottotitoli.
Per convertire il file .srt in un normale file di testo ci si può servire poi del programma gratuito SubtitleEdit, che consente anche di eliminare le informazioni superlue come quelle relative alla
formattazione.
martedì 1 maggio 2018
Sistemi Informatici Usati Nelle Stazioni Spaziali e Sulle Sonde
A fine 2017 sulla stazione spaziale internazionale ISS è stato montato un supercomputer chiamato HPE Spaceborne Computer.
Esso è stato interamente costituito con componenti disponibili sul mercato in grado di resistere ad un ambiente diverso come quello spaziale.
Lo Spaceborne Computer è stato in seguito lanciato sul razzo SpaceX CRS-12 e poi inviato tramite SpaceX Dragon Spacecraft.
L'idea è quella di aiutare gli astronauti a sopravvivere in condizioni estreme, consentendo di elaborare informazioni in tempo reale nello spazio.
Il dispositivo è stato realizzato con la collaborazione della NASA e ha caratteristiche particolari a partire dall’involucro ad acqua per il controllo della temperatura.
Come sistema operativo è stato montata una versione modificata di Linux.
A bordo è stato inserito anche un software specifico in grado di sopportare le temperature rigide e la presenza di radiazioni.
Inoltre è facile modificare velocemente parametri quali la velocità delle CPU e frequenza di aggiornamento della memoria.
I test sulla ISS sono stati svolti con l’obiettivo di sviluppare un hardware in grado di resistere ai viaggi nello spazio più impegnativi, come quelli su Marte.
COMPUTER
Il livello di informatizzazione delle stazioni spaziali è in costante crescita, ormai da qualche anno.
Ma a bordo non ci sono solo supercomputer ma anche "canonici" PC.
Una persona esterna potrebbe rimanere indifferente di fronte all’unità di controllo di queste stazioni spaziali: si tratta di una scatola di metallo dall’aspetto semplice, con un paio di attacchi elettrici colorati.
Non ci sono USB, né schermi e qualche volta non ci sono nemmeno tastiere.
In genere i PC montati sulle stazioni hanno un design modulare, in modo tale che ogni unità (processore, chip di memoria o sistema di input-output) può essere facilmente rimosso.
Tale design permette una manutenzione facile e veloce, essenziale in un ambiente aerospaziale perché le radiazioni dello spazio colpiscono le unità elettroniche e possono causare malfunzionamenti.
HARDWARE
Qualche anno fa l’hardware maggiormente utilizzato nelle stazioni spaziali era Intel 80386SX, parte integrante di home computer degli anni 80 e 90! (serie P3 prodotta per la prima volta nel 1985).
Cioè niente a che vedere con i computer degli ultimi anni.
Il fatto che i computer delle stazioni spaziali siano obsoleti è dovuto principalmente alla quantità di tempo che ci vuole per crearne uno, talvolta varie decine d’anni.
La lista degli obiettivi di una spedizione è organizzata in base alle migliori caratteristiche tecniche di un computer; tutto viene organizzato con le migliori tecnologie, soggette a prove di durata.
Una CPU meno recente apporta tuttavia altri benefici, per esempio, consuma meno energia elettrica.
Sebbene le stazioni spaziali siano piuttosto complesse, il suo sistema di controllo è piuttosto semplice e consiste in unità di base che possono offrire un numero limitato di operazioni.
Quanto meno lavorano i moduli del sistema, tanto più affidabile e stabile sarà il sistema.
Vengono utilizzati anche sistemi operativi real-time (RTOS) per risposte veloci ed affidabili del sistema.
Infatti gli RTOS sono immediati e non fanno perdere molto tempo.
SOFTWARE
Esistono inoltre speciali software per basi spaziali disegnati per utilizzare al minimo le risorse di sistema, sia che si tratti di RAM che di CPU.
Non esistono applicazioni per software perfette e durante i controlli si può sempre incontrare qualche errore.
Non è facile eseguire un debugging (ricerca di errori) a milioni di miglia di distanza.
Ecco perché il miglior modo per affrontare un errore di software è realizzare una simulazione, replicare la stazione spaziale sulla terra e simulare la gestione dell’errore.
Anni fa questo metodo è stato usato per ripristinare la sonda spaziale Voyager 2 che era stata lanciata 40 anni fa e che dovrebbe aver lasciato il sistema solare in questi giorni.
Nel 2010, per via di un malfunzionamento dell' hardware, la sonda ha iniziato ad inviare segnali casuali a posto di dati coerenti.
Fortunatamente, una copia del computer è conservata nei laboratori Voyager 2 presso la NASA. Grazie ad una simulazione, gli esperti della NASA scoprirono che il problema era dovuto un danneggiamento del settore della memoria.
Il problema fu risolto inviando una patch a Voyager 2 via radio. Una volta riparato l’errore, la stazione spaziale ha ripreso la sua trasmissione dallo spazio e così continuerà a fare per i prossimi 40 anni fino a che il segnale non cesserà.
Le esplorazioni spaziali sono piuttosto dispendiose, indipendentemente dal fatto che siano con equipaggio umano o no.
Ci vogliono risorse economiche, umane e molto tempo.
Uno dei problemi più pericolosi da affrontare è la perdita dati.
Molto spesso vengono utilizzati allo stesso tempo diverse forme di immagazzinamento, per esempio, la memoria flash può essere usata in concomitanza con la banda magnetica.
INTERNET
Grazie alle moderne tecnologie, gli astronauti di oggi possono navigare in rete e parlare con le loro famiglie sulla terra, ma il canale di comunicazione deve essere protetto.
A questo scopo vengo usati dei speciali buffer protettivi che proteggono gli astronauti dai pericoli del web.
Tuttavia molto spesso si decide di utilizzare computer dedicati che servono unicamente per comunicare con la terra e che non sono connessi a nessun punto critico della strumentazione della base spaziale.
Tutto ciò per evitare pericolosi Malware.
Esso è stato interamente costituito con componenti disponibili sul mercato in grado di resistere ad un ambiente diverso come quello spaziale.
Lo Spaceborne Computer è stato in seguito lanciato sul razzo SpaceX CRS-12 e poi inviato tramite SpaceX Dragon Spacecraft.
L'idea è quella di aiutare gli astronauti a sopravvivere in condizioni estreme, consentendo di elaborare informazioni in tempo reale nello spazio.
Il dispositivo è stato realizzato con la collaborazione della NASA e ha caratteristiche particolari a partire dall’involucro ad acqua per il controllo della temperatura.
Come sistema operativo è stato montata una versione modificata di Linux.
A bordo è stato inserito anche un software specifico in grado di sopportare le temperature rigide e la presenza di radiazioni.
Inoltre è facile modificare velocemente parametri quali la velocità delle CPU e frequenza di aggiornamento della memoria.
I test sulla ISS sono stati svolti con l’obiettivo di sviluppare un hardware in grado di resistere ai viaggi nello spazio più impegnativi, come quelli su Marte.
COMPUTER
Il livello di informatizzazione delle stazioni spaziali è in costante crescita, ormai da qualche anno.
Ma a bordo non ci sono solo supercomputer ma anche "canonici" PC.
Una persona esterna potrebbe rimanere indifferente di fronte all’unità di controllo di queste stazioni spaziali: si tratta di una scatola di metallo dall’aspetto semplice, con un paio di attacchi elettrici colorati.
Non ci sono USB, né schermi e qualche volta non ci sono nemmeno tastiere.
In genere i PC montati sulle stazioni hanno un design modulare, in modo tale che ogni unità (processore, chip di memoria o sistema di input-output) può essere facilmente rimosso.
Tale design permette una manutenzione facile e veloce, essenziale in un ambiente aerospaziale perché le radiazioni dello spazio colpiscono le unità elettroniche e possono causare malfunzionamenti.
HARDWARE
Qualche anno fa l’hardware maggiormente utilizzato nelle stazioni spaziali era Intel 80386SX, parte integrante di home computer degli anni 80 e 90! (serie P3 prodotta per la prima volta nel 1985).
Cioè niente a che vedere con i computer degli ultimi anni.
Il fatto che i computer delle stazioni spaziali siano obsoleti è dovuto principalmente alla quantità di tempo che ci vuole per crearne uno, talvolta varie decine d’anni.
La lista degli obiettivi di una spedizione è organizzata in base alle migliori caratteristiche tecniche di un computer; tutto viene organizzato con le migliori tecnologie, soggette a prove di durata.
Una CPU meno recente apporta tuttavia altri benefici, per esempio, consuma meno energia elettrica.
Sebbene le stazioni spaziali siano piuttosto complesse, il suo sistema di controllo è piuttosto semplice e consiste in unità di base che possono offrire un numero limitato di operazioni.
Quanto meno lavorano i moduli del sistema, tanto più affidabile e stabile sarà il sistema.
Vengono utilizzati anche sistemi operativi real-time (RTOS) per risposte veloci ed affidabili del sistema.
Infatti gli RTOS sono immediati e non fanno perdere molto tempo.
SOFTWARE
Esistono inoltre speciali software per basi spaziali disegnati per utilizzare al minimo le risorse di sistema, sia che si tratti di RAM che di CPU.
Non esistono applicazioni per software perfette e durante i controlli si può sempre incontrare qualche errore.
Non è facile eseguire un debugging (ricerca di errori) a milioni di miglia di distanza.
Ecco perché il miglior modo per affrontare un errore di software è realizzare una simulazione, replicare la stazione spaziale sulla terra e simulare la gestione dell’errore.
Anni fa questo metodo è stato usato per ripristinare la sonda spaziale Voyager 2 che era stata lanciata 40 anni fa e che dovrebbe aver lasciato il sistema solare in questi giorni.
Nel 2010, per via di un malfunzionamento dell' hardware, la sonda ha iniziato ad inviare segnali casuali a posto di dati coerenti.
Fortunatamente, una copia del computer è conservata nei laboratori Voyager 2 presso la NASA. Grazie ad una simulazione, gli esperti della NASA scoprirono che il problema era dovuto un danneggiamento del settore della memoria.
Il problema fu risolto inviando una patch a Voyager 2 via radio. Una volta riparato l’errore, la stazione spaziale ha ripreso la sua trasmissione dallo spazio e così continuerà a fare per i prossimi 40 anni fino a che il segnale non cesserà.
Le esplorazioni spaziali sono piuttosto dispendiose, indipendentemente dal fatto che siano con equipaggio umano o no.
Ci vogliono risorse economiche, umane e molto tempo.
Uno dei problemi più pericolosi da affrontare è la perdita dati.
Molto spesso vengono utilizzati allo stesso tempo diverse forme di immagazzinamento, per esempio, la memoria flash può essere usata in concomitanza con la banda magnetica.
INTERNET
Grazie alle moderne tecnologie, gli astronauti di oggi possono navigare in rete e parlare con le loro famiglie sulla terra, ma il canale di comunicazione deve essere protetto.
A questo scopo vengo usati dei speciali buffer protettivi che proteggono gli astronauti dai pericoli del web.
Tuttavia molto spesso si decide di utilizzare computer dedicati che servono unicamente per comunicare con la terra e che non sono connessi a nessun punto critico della strumentazione della base spaziale.
Tutto ciò per evitare pericolosi Malware.