Visualizzazioni Totali

TRA I PRIMI IN ITALIA A PARLARE DI BITCOIN (DAL 2012!): PER ESSERE SEMPRE AGGIORNATI SULLE NOVITA' TECNOLOGICHE DEL WEB SEGUITE LA PAGINA FACEBOOK (LINK A SINISTRA)

mercoledì 29 febbraio 2012

Quali Sono Le Pagine Con PageRank Più Alto?


Dato che Google va "pazzo" per i domini .EDU .ORG e .GOV , propongo qui di seguito una lista delle pagine web con PR più alto(siti/blog/forum .EDU).
Per avere maggiori informazioni sul PR , per sapere come funziona e la sua importanza nell'indicizzazione di un sito su Google, vi rimando all'apposito articolo: Come funziona il PageRank.

PR6
http://yaleglobal.yale.edu/content/something-fishy

PR5
http://www.grow.arizona.edu/SPT–FullRecord.php?ResourceId=2573
http://yaleglobal.yale.edu/content/minilateralism
http://yaleglobal.yale.edu/content/protectionism-unavoidable
http://lug.oregonstate.edu/events
http://lug.oregonstate.edu/events/firefox/crop-circle
http://web.ics.purdue.edu/~pucssa/modules/news/article.php?storyid=44
http://yaleglobal.yale.edu/about/chaos.jsp
http://yaleglobal.yale.edu/about/experiment.jsp
http://yaleglobal.yale.edu/about/sport.jsp
http://womenscenter.unc.edu/blog/index.php?post=10
http://womenscenter.unc.edu/blog/index.php?post=15
http://womenscenter.unc.edu/blog/index.php?post=13

PR4
http://yaleglobal.yale.edu/content/no-booze-or-jokes-googlers-china/
http://blogs.lvc.edu/green/post/Sustainable-Dining.aspx
http://blogs.lvc.edu/green/post/A-Greener-Facilities-Services.aspx
http://library.blog.wku.edu/2009/06/12/kentucky-library-museum-to-host-5th-annual-appraisal-day/#comments
http://library.blog.wku.edu/2009/07/01/an-illustrious-career/
http://library.blog.wku.edu/2009/06/12/kentucky-library-museum-to-host-5th-annual-appraisal-day/
http://www.darden.virginia.edu/html/deansblog.aspx?id=15362%26blogid=198
http://www.darden.virginia.edu/html/deansblog.aspx?id=12360%26blogid=198
http://lug.oregonstate.edu/events/firefox/sky
http://blog.brookdalecc.edu/article.php?story=20090420222432807
http://civic.mit.edu/blog/andrew/neighborhood-media-centers
http://civic.mit.edu/blog/andrew/whats-propaganda-when-it-can-be-publicly-critiqued
http://civic.mit.edu/blog/lisa-williams/four-social-cues-for-news
http://civic.mit.edu/blog/audubon/government-20-a-case-study-from-australia
http://civic.mit.edu/blog/csik/baby-votes-couple-to-name-their-newborn-using-selectricity
http://civic.mit.edu/blog/florence-gallez/mlk-papers-now-open-to-public-and-accessible-online
http://blogs.lvc.edu/green/post/Campus-RecyclingWaste-Disposal-Improvements.aspx
http://blogs.lvc.edu/green/post/Sustainability-Task-Force-Mission-Statement.aspx
http://blogs.lvc.edu/green/post/A-Greener-Facilities-Services.aspx
http://www.wcl.american.edu/pijip/go/blog-post/kei-brownbag-on-bilski-the-scope-of-patentable-subject-matter
http://diva.sfsu.edu/blog/08-31-2009/diva-now-works-ilearn
http://fromthefield.colorado.edu/blog/kociolek/2009/07/28/what-dry-season
http://fromthefield.colorado.edu/blog/kociolek/2009/07/26/another-great-hike-weve-got-samples-galore
http://fromthefield.colorado.edu/blog/kociolek/2009/07/26/folks-field
http://golem.ph.utexas.edu/~distler/blog/archives/000335.html
http://golem.ph.utexas.edu/~distler/blog/archives/002030.html
http://career.ucsb.edu/blog/post/Planning-Undergraduate-Courses-for-Graduate-School.aspx#comment
http://career.ucsb.edu/blog/post/Society-of-Leadership-and-Success.aspx#comment
http://career.ucsb.edu/blog/post/Deciding-on-the-Peace-Corps.aspx#comment
http://career.ucsb.edu/blog/post/Deciding-a-Major.aspx#comment
http://career.ucsb.edu/blog/post/Getting-Involved-on-Campus-and-at-Work.aspx#comment

PR3
http://belmontabbeycollege.edu/mybacspace/Topic365-20-1.aspx
http://blog.fvsu.edu/2009/06/parents-and-students-won-over-at-fvsu-summer-orientation
http://prometheus.scp.rochester.edu/ursds/blog/
http://saa.cms.si.umich.edu/node/833#comment-5345
http://blogs.lvc.edu/spiros/post/Northern-Trust-Receives-Authority-to-Repay-US-241576-Billion.aspx#comment
http://blog.brookdalecc.edu/article.php?story=20090419004616713
http://www.wcl.american.edu/pijip/go/blog-post/negotiations-for-an-anti-counterfeiting-trade-agreement-raise-concerns
http://www.english.education.gov.qa/content/blog/detail/6087/
http://www.aai.msu.edu/AnimalNewstoUse/RelatedStories/tabid/101/articleType/ArticleView/articleId/10/HORSES-LIVE-A-BETTER-LIFE-IN-BRAZIL-THANKS-TO-MSU-EXPERT.aspx

PR2
http://ecos.osu.edu/?q=node/231
http://ecos.osu.edu/?q=node/229
http://ecos.osu.edu/?q=node/231
http://blogs.musc.edu/womenspeak/post/2009/09/Have-a-BALL-during-your-pregnancy!.aspx
http://blog.fvsu.edu/2009/06/my-beacon-of-light/
http://blogs.vetmed.wsu.edu/VCGL/post/2009/01/27/Cats-and-Cardiomyopathy.aspx
http://blogs.vetmed.wsu.edu/VCGL/post/2009/03/10/A-genetic-approach-to-Boxer-ARVC.aspx
http://blogs.vetmed.wsu.edu/VCGL/post/2009/02/12/Hunting-for-the-Doberman-Pinscher-Cardiomyopathy-gene.aspx

PR1
http://www.johnstoncc.edu/Arboretum/blog/post/2009/02/28/Our-Southern-Gardens-e28093-The-Magnolia.aspx
http://prometheus.scp.rochester.edu/ursds/node/96
http://blogs.musc.edu/womenspeak/post/2009/07/Best-Hospitals-for-Gyencology.aspx
http://saa.cms.si.umich.edu/node/449

Come Aumentare Il PageRank Di Un Sito (Guida)


Dopo aver spiegato con dovizia di particolari il funzionamento di Google Analytics (per analizzare il traffico delle pagine web), ci soffermiamo sul PageRank. Esso è un valore numerico che Google attribuisce ad ognuna delle pagine web conosciute dal motore di ricerca. Il nome del PageRank deriva dal fatto che è un sistema di "rank" progettato in parte da Larry Page,uno dei fondatori di Google. Il valore di PageRank di una pagina è uno dei tanti fattori che contribuisce a determinare la posizione della pagina stessa nei risultati delle ricerche: più il PageRank è alto e più sarà alta la posizione della pagina nelle ricerche su Google.


Importanza del PageRank
Il concetto di PageRank è stato pensato per ottenere un'idea approssimativa del grado di "importanza" di una pagina web. Seguendo una tecnica che spiegheremo tra alcuni paragrafi, Google è in grado di valutare approssimativamente quanto una pagina può essere considerata autorevole oppure popolare sul web.Le pagine considerate più importanti otterranno nei risultati delle ricerche una "spinta in più" che gli permetterà di raggiungere posizioni migliori. Il PageRank,tuttavia,non è l'unico parametro preso in considerazione da Google per decidere la posizione di una pagina(qui trovi gli altri fondamentali parametri: Backlinks ed Anchor Text) . Per tale ragione un valore di PageRank alto non garantisce necessariamente una posizione migliore rispetto ad una pagina con PageRank più basso.Capita , infatti, che pagine con PageRank basso superino in posizione le pagine con un PageRank più alto ma con contenuti (testi, tag HTML, link, ecc.) meno ottimizzati. Per questa ragione, è sconsigliato interessarsi del PageRank delle pagine del proprio sito come se fosse il mezzo principale per ottenere buoni risultati. Al contrario, si tratta di un elemento che acquisisce importanza solo se è accompagnato dalla presenza di altre caratteristiche essenziali, a cominciare dai contenuti e dal grado di ottimizzazione delle pagine.


Come Google lo calcola
Il calcolo del PageRank viene effettuato attraverso l'applicazione di una formula matematica che, per quanto semplice, può generare situazioni estremamente complesse nel momento in cui viene applicata ad ognuna delle miliardi di pagine conosciute da Google.Il PageRank può essere considerato una versione più raffinata e complessa della "Link Popularity" (LP). La LP è uno dei tanti fattori che i principali motori di ricerca analizzano per attribuire la posizione ad una pagina web e coincide col numero complessivo di link che puntano a quella pagina. Maggiore è il numero dei link che puntano ad una pagina e migliore sarà la posizione di quella pagina nei risultati delle ricerche.I motori di ricerca, dunque, trattano i link come dei "consigli" che un sito web offre ai propri visitatori. Un link ad un sito esterno può essere considerato come un invito per l'utente a visitare il sito che beneficia del link.Ne consegue che i motori che si basano (parzialmente) sulla LP, daranno una preferenza ai siti che ricevono un numero di link maggiore rispetto agli altri. Questo criterio, però, presenta diverse pecche, ad esempio penalizza fortemente i piccoli siti nati da poco, che necessitano di molto tempo prima di ottenere una buona quantità di link da altri siti.Il PageRank di Google si basa anch'esso sui link ricevuti da una pagina e il valore di pagerank sale anche con l'aumentare del numero di link che puntano alla pagina, ma introduce un elemento nuovo che minimizza i problemi che sorgevano finora con la Link Popularity: in poche parole un link ricevuto da una pagina che possiede un pagerank alto "vale" più di un link ricevuto da una pagina dal valore di pagerank basso e contribuisce maggiormente a far aumentare il valore di PageRank della pagina che riceve il link.Il valore di PageRank di una pagina, dunque, non indica semplicemente il suo grado di "popolarità" sul web ma si spinge oltre fino a indicare un grado di "autorevolezza". Una pagina web che riceve pochi link, ma provenienti da siti molto apprezzati e autorevoli, acquisisce essa stessa autorevolezza.


Come aumentare il PageRank
Iniziamo subito col dire che non esiste un "PageRank del sito". Il PageRank è un valore attribuito a singole pagine e non ad interi siti web. Si tratta di una precisazione importante, in quanto generalmente le pagine di un sito web hanno valori di PageRank molto diversi tra loro e non è corretto fare una "media" nè credere che tutte le pagine abbiano identico valore di PageRank.
Derivando dai link che un sito riceve, il metodo principale per aumentare il PageRank di un sito consiste appunto nel cercare di ricevere link da altri siti e, come accennato prima, a parità di altri elementi un link residente su una pagina dal PR alto trasmette più PageRank di un link residente su una pagina dal PR basso.Quindi, un link proveniente da una pagina con PR6 (ma strapiena di link ad altre pagine) può regalare meno PageRank di un link proveniente da una pagina con PR5 (ma contenente pochi link ad altre pagine).Tale aspetto non è per nulla un particolare secondario, tuttavia viene spesso sottovalutato o addirittura ignorato da diversi webmaster, che partecipano spesso ad una "cieca" caccia a link da pagine dal PageRank consistente senza però badare al numero dei link che tali pagine contengono.Bisogna invece avere ben chiaro che i parametri da prendere in considerazione sono due e che il reale obiettivo è ottenere link da pagine dal PR più alto possibile e col minor numero di link pubblicati sulla pagina.L'obiettivo di ricevere più link può essere perseguito in vari modi. Innanzitutto se un sito possiede contenuti interessanti è più probabile che i webmaster di altri siti decidano di offrirgli spontaneamente un link. Realizzare un sito con testi o altro materiale di qualità è dunque il primo passo per garantirsi l'interesse degli utenti, dei webmaster di altri siti e conseguentemente un maggior numero di link.Oltre a beneficiare di questi link spontanei, è anche possibile prendere accordi con i webmaster di altri siti, proponendo uno scambio di link. È però importante effettuare questi scambi esclusivamente con siti di qualità, in quanto la tipologia dei siti a cui si offre un link fornisce a Google un'indicazione chiara sul genere (e sulla qualità) del sito che offre il link. Oltre alla qualità, è altamente consigliato effettuare scambi di link prevalentemente con siti che trattano temi simili al proprio(questo aiuterà Google e altri motori di ricerca a comprendere meglio il tema trattato dai siti che si sono scambiati un link).


Ottimizzare il PageRank
Ogni pagina del sito deve essere ben integrata nel sito stesso, quindi ogni pagina deve ricevere almeno un link e dare almeno un link ad un'altra pagina del sito. Di solito ciò avviene con naturalezza in tutti i siti che possiedono una buona struttura di navigazione, ma in ogni caso è sempre buona norma controllare che ogni pagina sia collegata alle altre.In una struttura di navigazione di tipo gerarchico, il PageRank si accumula maggiormente sulla pagina che sta in cima alla gerarchia, che usualmente coincide con la homepage del sito. Google consiglia inoltre di non inserire troppi link in una pagina e di tenersi sotto le cento unità. Si tratta di un consiglio che non ha a che fare espressamente col PageRank ma che è il caso di seguire, per distinguersi dalle link-farm e dalle pagine di link "FFA", mal viste da ogni motori di ricerca.
Grande attenzione va prestata agli "outbound link", ovvero ai link che si offrono a siti esterni. Innanzitutto, è sconsigliato accumulare molti outbound link sulle pagine con PR alto, a cominciare dalla homepage. E' molto meglio offrire outbound link seguendo le seguenti semplici regole:
  • offrire link solo a siti che giudichiamo di buona qualità
  • offrire link solo a quei siti che migliorano l'esperienza di navigazione degli utenti del nostro sito
  • offrire link principalmente a siti in tema col nostro
  • cercare di integrare gli outbound link nel testo della pagina, usando come testo del link alcune parole-chiave inerenti gli argomenti sviluppati nella pagina stessa
  • evitare categoricamente link a siti che usano trucchi di posizionamento (testi invisibili, doorway, link-farm, cloaking, ecc.) in quanto un link è come un "consiglio" che viene dato ai visitatori del proprio sito e ai motori non fa piacere sapere che consigliamo la visita di siti "poco puliti"
  • non ascoltare chi sostiene che offrire link ad altri siti può peggiorare la posizione del sito nei risultati delle ricerche su Google. Al contrario, i link offerti ad altri siti, se creati con cognizione di causa, sono importantissimi per tematizzare il proprio sito e per migliorare la sua posizione.

Come Funziona Google Analytics (Guida)



Dopo aver parlato dei vari Backlinks, Anchor Text e delle Key Words e Google Trends, oggi ci soffermiamo su Google Analytics. 
Questo è utilissimo software di analisi dei dati web che consente di tenere monitorato l’andamento del proprio sito, analizzando i dati di traffico e valutando l’efficacia delle campagne di marketing.
Determina in che modo gli utenti arrivano al sito, le loro modalità di navigazione e come è possibile migliorare ulteriormente il servizio offerto: informazioni utili per il miglioramento del ritorno sull’investimento, per l’aumento delle conversioni e per l’incremento dei guadagni derivanti dal web.
In generale i webmaster, oltre che costruire un sito/blog,devono stare anche molto attenti alle sue statistiche(visitatori, il traffico generato, le pagine più lette, le keywords più efficaci e questo genere di informazioni).
Andiamo a vedere come si fa ad usare e ad installare sulla vostra pagina web.
  1. Prima di tutto, assicuratevi di avere un account Google. Se non ce l’avete, createlo e loggatevi poi su Google Analytics per cominciare con l’attivazione del servizio
  2. Registrate il vostro sito web, inserendo l’URL, scegliete il nome dell’account, impostate il fuso orario e date l’ok
  3. Nella schermata successiva, inserite cognome, nome e paese di appartenenza. Confermate, accettate il dislcaimer e proseguite.
  4. Avete così concluso l’impostazione del vostro account Google Analytics. Nella pagina risultate ora vedrete un codice, è quello che vi serve perché il servizio possa leggere i dati provenienti dal vostro sito. Copiatelo ed incollatelo appena prima del tag (si trova nel file HTML quasi in fondo alla pagina, se avete un blog andate su Modelli/HTML), nella pagina di cui volete registrare le statistiche.
In questo modo,ogni volta che effettuerete l’accesso a Google Analytics,potrete visualizzare le statistiche registrate come visite, pagine più lette, sorgenti di traffico e molto altro ancora.

Cosa Sono Gli Anchor Text e Come Funzionano

Dopo aver spiegato il funzionamento dei Backlinks e come trovarli un altro fattore che i motori di ricerca prendono in considerazione nei loro algoritmi per posizionare un sito nel loro Page Rank è l'Anchor Text ovvero il testo inserito tra gli Anchor Tag.
Normalmente in un sito, l'Anchor Text indica l'oggetto principale della pagina linkata.
I motori di ricerca si sono ben presto resi conto di questo modo di utilizzare l'Anchor Text e hanno utilizzato tale caratteristica nei loro algoritmi per definire il tema trattato dalla pagina di destinazione.Spesso le parole chiave usate nel testo del link sono molto più importanti del contenuto della pagina e dei meta tag.
Infatti alcune pagine web, sono posizionate nelle prime posizioni con parole chiave molto competitive grazie al fatto di avere molti altri siti che le linkano usando keyword nel testo del link.
La presenza delle keyword nell'Anchor text migliora la pertinenza alle keyword usate della pagina di destinazione.
L'ottimizzazione degli Anchor Text va sviluppata all'interno di ogni sito per esaltare i contenuti delle singola pagina; creare una struttura che usi al meglio i testi dei link è abbastanza facile.
Quando si inserisce un link verso le pagine interne del sito è meglio linkare parole chiave attinenti all'argomento della pagina di destinazione piuttosto che linkare parole chiave non attinenti. In alcuni casi sarà necessario ristrutturare completamente la frase per permettere di linkare parole chiave attinenti al contenuto,ma il risultato ne varrà la pena.
Ad esempio è meglio usare il formato:
- Ecco come accedere al Deep Web senza software
invece di
- In questa pagina è spiegato come accedere al Deep Web senza software
o peggio ancora
- per accedere al Deep Web senza software clicca qui
E' importante avere anche link esterni che puntano al proprio sito il cui testo comprende delle keyword.
Nel momento in cui cercate dei link dall'esterno prendete seriamente in considerazione la possibilità di scrivere differenti titoli e descrizioni di link che puntano al vostro sito.
Il titolo che è tipicamente utilizzato come testo da linkare, dovrebbe contenere le keyword più importanti.
Una buona idea è lavorare con diverse opzioni di titoli e descrizioni in modo da utilizzare keyword differenti, ma anche per aiutare i motori di ricerca a darvi una più ampia copertura sulle parole chiave.Non solo ogni titolo dovrebbe essere ottimizzato per una keyword specifica, ma anche il testo della descrizione dovrebbe variare per essere il giusto compimento del titolo.
Inoltre, se il vostro sito tratta più temi, è bene anche cambiare l'URL di destinazione in modo da aumentare l'attinenza delle singole pagine del vostro sito ai temi della pagina da cui proviene il link.
I link dall'esterno aiutano il vostro sito ad acquisire rilevanza per le parole chiave citate nel testo del link.
E quando il numero di questi link entranti aumenta, in genere aumenta anche il posizionamento del vostro sito in seguito alle ricerche per quelle keyword.

Cosa Sono I Backlinks e Come Ottenerli


I backlinks, al pari degli Anchor Text , svolgono un ruolo di primaria importanza nel calcolo della popolarità di una pagina web, meglio nota come link popularity(LP) ed in particolare vengono sfruttati dai motori di ricerca all'interno degli algoritmi che generano la SERP(Search Engine Results Page).
Alcuni siti sono una fonte più autorevole di altri, ricevere uno o più link da un sito con un elevata Authority è molto meglio che riceverne molti da siti con un basso livello di Authority.
Ed in genere i link da questi siti sono molto difficili da ottenere.
Tra tutti i domini con elevata Authority, Google predilige i domini .EDU e .GOV che forniscono un'elevata Authority(anche i .ORG sono ben accetti).
Google infatti "adora" questi domini.

Ecco come reperire pagine in cui ottenere link da domini .EDU e .GOV:
- La principale attività per ottenere backlinks da domini di questo tipo è costituita dai commenti nei blog ospitati appunto su tali domini.
- Alcuni forum costituiscono un’altra grande sorgente di backlinks di qualità(potrebbe essere utile partecipare ai loro forum lasciando quà e là link del vostro blog,stando ben attenti a non fare spam quindi lasciandolo in luoghi pertinenti o comunque che abbiano attinenza con il topic del forum).


Come ricercare forum di questo tipo su Google:

site:.edu “no comments” +blogroll -”posting closed” -”you must be logged in” -”comments are closed”

inurl:(edugov) “no comments” +blogroll -”posting closed” -”you must be logged in” -”comments are closed”

site:.gov “no comments” +blogroll -”posting closed” -”you must be logged in” -”comments are closed”

site:.edu inurl:blog “comment” -”you must be logged in” -”posting closed” -”comment closed” “KEYWORD”

A keyword va sostituita una parola chiave riconducibile al vostro blog.

martedì 28 febbraio 2012

Parole Chiave e Prodotti Più Venduti Su eBay

Sono molto utili questi due link che permettono di risalire alle parole chiave più ricercate sul web:

Google Trends
Google Trends indica qual è il trend delle parole più ricercate(quindi per determinate parole chiave da utilizzare in un blog ad esempio)
Pulse Ebay
Per scoprire quali sono i prodotti più venduti su ebay

Confronto Tra Parole Chiave
Tool di Google Adwords: KeywordToolExternal
Tool di Worldtracker: Freekeywords

Vi ricordo che potrete usare anche lo stesso Google per le parole chiave.
I suggerimenti del motore di ricerca quando digitate parole nel riquadro sono molto utili, per sapere i trend del momento (di eBay ma non solo).

mercoledì 22 febbraio 2012

Come Registrare Librerie DLL (Guida)


I file DLL sono delle librerie software che possono essere utilizzate dai programmi che le richiedono, solitamente durante il processo di installazione di un programma vengono installate tutte quelle necessarie, tuttavia in alcuni casi qualcosa può andare storto oppure tali file possono essere cancellati da qualche programma utilizzato per ripulire ed alleggerire il sistema operativo, quindi il programma non parte.

Naturalmente le librerie DLL possono essere scaricate da internet: Dll Library Download

Trovata e scaricata quella(o quelle)che interessa aggiungerla all’interno della directory di sistema, sia che utilizziate Windows XP o Vista, ovvero in C:\Windows\System32

Poi la DLL va registrata, per farlo cliccate sul pulsante Start e poi su Esegui, qui dovrete inserire questo comando: regsvr32 [nome del file da registrare.dll]

(senza parentesi quadre)

martedì 14 febbraio 2012

Migliori Social Network e Siti D'Incontro (Tutti I Links)


Dopo aver parlato di come i Sistemi Di Comunicazione sono cambiati nel tempo,vediamo qualche link utile allo scopo:
Altri articoli simili:
Come Funziona Askfm
Come Funziona Formspring
Come Funziona Twitterfeed
Come Funziona So.cl
Come Funziona Google Plus
La Storia Di Facebook
Facebook(Come togliere il diario da Facebook)
Facebook(Come cancellarsi da Facebook)
Facebook(Scoprire chi ti ha cancellato)
Facebook(Nascondere la bacheca ad un amico)

Come Accedere Al Deep Web Senza Software

Dopo aver spiegato cos'è il Deep Web e una Darknet vediamo com'è possibile accedere a tutte quelle pagine web non indicizzate su Google (perchè illegali, di cattivo gusto, per privacy, etc).
Tramite alcuni portali è possibile accedere al Deep Web anche senza software specifici.
Com'è possibile ciò? Alcuni siti tra i quali Linkageddon ed Hidden Wiki permettono l'accesso tramite software specifici, altri siti invece fanno comunque parte del Deep Web in quanto non indicizzati sui motori di ricerca(ma è possibile accedere anche senza installare software).
In poche parole tutti i siti non indicizzati ed accessibili con normale browser sono Deep Web, quelli non indicizzati ed accessibili solo con software specifici rappresentano le Darknet.
In questa carrellata di link, nessun link Onion o simili ma siti o pagine non indicizzate e motori di ricerca che permettono di scovare files e documenti non indicizzati su Google.
Non sai come procurarti Bitcoin per fare acquisti sul Deep Web? Come Guadagnare Bitcoin Gratis(Guida Freebitcoin)
Qui invece trovate I Livelli Del Deep Weble Red Room e lo Shadow Web.


Vediamo alcuni link interessanti:
E’ lo strumento di ricerca scientifico più completo.
Con oltre 370 milioni di citazioni scientifiche indexate, raccoglie non solo articoli scientifici, ma anche homepage scientifiche, materiale in pre-print, brevetti, contenuti istituzionali e informazioni da siti web.

Progetto della University Of Michigan Digital Library finalizzato alla creazione di una collezione di documenti digitali derivanti dall'attività scientifico accademica internazionale. Gli e-prints (papers, preprints etc.) sono raccolti da altri archivi aperti, quali ad esempio AMS Acta, tramite le procedure di interoperabililtà elaborate da OAI Open Archive Initiative.

Altri siti di ricerche:
Deep Web Search (generiche)
The European Library (libreria universitaria)
Deep Web Tech (scienza e medicina)
TechXtra (ingegneria ed informatica)
CompletePlanet.com (la porta per il Deep Web)
Base Search
Biznar
DirectSearch.net
Vlib.org
OpenAir
Infomine
Info Please
Globe Info
Intute
Lookahead
Osti
Mednar
Clusty
Science.org
ScienceResearch
UCSB


A cosa servono? Indicizzano molti documenti e files che Google(e i motori di ricerca canonici) non permettono di trovare.


Linkageddon (solo tramite Freenet)
Linkageddon ovvero il sito che collega al Web sommerso(Freenet).
Quando schiacciate sul link, il browser internet e/o il firewall,potrebbe negarvi l'accesso(voi cliccate su "prosegui").
Insomma ignorate i messaggi di protezione inerenti a certificati e quant altro(escono perchè lì dentro ci sono siti illegali, non certo per virus o worm).
Vi si aprirà una pagina in inglese con i vari link e con sotto una breve descrizione.
La particolarità del sito è che non ci sono motori di ricerca.
Ovviamente è possibile imbattersi in siti illegali con download, store che vendono armi ed esplosivi, siti pornografici, etc insomma tutti quei siti(o la gran parte)non indicizzati su google.
Linkageddon fa parte delle Darknet e come ben sapete oltre ad essere anonimizzato è completamente libero quindi non esistono censure di nessun tipo.
Se invece volete accedere al Deep Web tramite Freenet e TOR, vi rimando a questo articolo:
Link Per Freenet e TOR(Deep Web)

Finalmente è stata pubblicata la guida definitiva (ebook) dedicato al Deep Web. Tante tecniche utilizzate negli anni sulla Darknet di TOR. Attenzione lo scopo dell'ebook non è quello di invogliare la gente a delinquere ma illustrare alcune tecniche e far luce su alcuni aspetti di questo mondo underground.
L'ebook è venduto al costo di 8 € pagabile con Paypal, Bitcoin, Monero o Ethereum.
Per comprarlo o avere maggiori info, potete scrivere sulla nostra pagina: Dark Space Blogspot (Facebook) oppure all'indirizzo mail darkdave666@hotmail.com o ancora usando il form di contatto a sinistra (scrivete anche il vostro indirizzo mail).


Altri articoli:
Come Funziona Osiris (Creare Siti P2P)
Cos'è e Come Funziona Usenet
Come Navigare Nel Deep Web Con Freenet
Guida Deep Web 2013
Grams: Motore Di Ricerca Per Il Deep Web
Navigare Con TOR Browser
Navigare Nel Deep Web Con Una VPN
Configurazione TOR 2013(Per Il Deep Web)
Come Funziona Freenet(Deep Web)
Nuovi Links Italiani Deep Web(2014)
Links Italiani Deep Web(2013)
Migliori Link Deep Web 2013
Links Italiani Freenet(2014)
Guadagnare Bitcoin(Guida per pagare sul Deep Web)
Darknet: La Rete Oscura
Link Per Il Deep Web(Freenet e TOR)
How To Access Deep Web

lunedì 13 febbraio 2012

Deep Web: il Web Sommerso (Storia e Statistiche)

Il Deep Web (o Web invisibile) è l'insieme delle risorse informative del World Wide Web non indicizzate sui normali motori di ricerca. Cioè ci si riferisce a tutti quei siti che, per qualche motivo, non vengono individuati dai motori di ricerca. Per Deep Web ci si riferisce a siti accessibili tramite normale browser (Chrome, IE o quello che vi pare) conoscendo il link esatto della pagina web o avendo eventualmente password e quant'altro per accedervi. Altro metodo è accedervi tramite i tanti software che vanno a costituire vere e proprie Darknet: cioè reti private tra utenti (Freenet, I2P, Osiris, etc). TOR invece ha un funzionamento un po' diverso, anche se concettualmente anche qui siamo anonimi e i contenuti(pagine web) possono essere hostati o sul proprio Hard Disk o su spazi web appositi. Riguardo il proprio Hard Disk, ovviamente, quando saremo offline anche il sito risulterà down. Alcuni link: Link Per Freenet e TOR(Deep Web)
Secondo una ricerca sulle dimensioni della rete condotta nel 2000 da Bright Planet, un'organizzazione degli USA, il Web è costituito da oltre 550 miliardi di documenti mentre Google ne indicizza solo 2 miliardi, ossia meno dell'uno per cento. Duole ricordare che si tratta di una ricerca molto vecchia che però dall'idea di quanto grande sia il Deep Web (che non va però confuso solo con TOR. Come abbiamo visto anche siti accessibili normalmente ma magari protetti da password, tipo account bancari o forum ristretti, hanno pagine non indicizzare sui motori di ricerca per un motivo o per un altro).

Suddivisione:
-Generalmente le pagine Onion sono semplici siti accessibili a tutti o che richiedono una registrazione
-Pagine raggiungibili tramite determinati script o software (ad esempio, anche i P2P sono Deep Web)
-Infine archivi multimediali (tipo quelli di Usenet)

I normali motori di ricerca per trovare i contenuti del Web usano dei software, chiamati "crawler".
Questa tecnica si rivela inefficace per ritrovare le risorse del Web nascosto.
Per esempio i Web-crawler non sono in grado di interrogare un database di una pagina dinamica dato il numero infinito di termini che si potrebbero ricercare.


Per saperne di più vi rimando anche agli articoli inerenti allo stesso argomento(trattati in passato):
Guida Deep Web
Come Guadagnare Bitcoin Gratis(Guida Freebitcoin)
Come Funziona Osiris (Creare Siti P2P)
Cos'è e Come Funziona Usenet
Links Italiani Deep Web
Accedere Al Deep Web Senza Software
Darknet: La Rete Oscura
Link Per Il Deep Web(Freenet e TOR)
Guadagnare Bitcoin(Guida per pagare sul Deep Web)
How To Access Deep Web

Software Per Darknet: Tor ed Osiris

Con browser "normali" non si accede alle Darknet.
Vediamo alcuni software utili al caso:
Tor(The Onion Router) è un sistema di comunicazione anonima per Internet basato sulla seconda generazione del protocollo di onion routing.Tor protegge gli utenti dall'analisi del traffico attraverso una rete di onion router (detti anche relay), gestiti da volontari, che permettono il traffico anonimo in uscita e la realizzazione di servizi anonimi nascosti. Originariamente sponsorizzato dalla US Naval Research Laboratory, è stato un progetto della Electronic Frontier Foundation ed ora è gestito da The Tor Project, una associazione senza scopo di lucro. Lo scopo di Tor è quello di rendere difficile l'analisi del traffico e proteggere così la privacy, la riservatezza delle comunicazioni, l'accessibilità dei servizi.
Il funzionamento della rete Tor è concettualmente semplice: i dati che appartengono ad una qualsiasi comunicazione non transitano direttamente dal client al server, ma passano attraverso i server Tor che agiscono da router costruendo un circuito virtuale crittografato a strati.
Le comunicazioni via Tor sono a bassa latenza e questo lo rende adatto alla navigazione web,alla posta,instant messaging,SSH, IRC etc.
Tor supporta esclusivamente il protocollo TCP.

La rete Tor fornisce essenzialmente due servizi:
1) Connessioni anonime in uscita
2) Fornitura di servizi nascosti

Anche se la funzionalità più popolare di Tor è quella di fornire anonimato ai client, può anche fornire anonimato ai server.
Usando la rete Tor, è possibile ospitare dei server in modo che la loro localizzazione nella rete sia sconosciuta.
Un servizio nascosto può essere ospitato da qualsiasi nodo della rete Tor, non importa che esso sia un relay o solo un client, per accedere ad un servizio nascosto, però, è necessario l'uso di Tor da parte del client.
In altre parole, è possibile offrire un servizio (ad esempio un sito web) in modo totalmente anonimo, come hidden service Tor.Agli hidden services si accede attraverso uno pseudo-dominio di primo livello .onion. La rete Tor capisce la richiesta e apre una connessione con il server desiderato. In genere si preferisce configurare un servizio nascosto in modo che sia accessibile esclusivamente da un'interfaccia di rete non-pubblica. I servizi a cui si accede sia attraverso Tor che la rete pubblica sono suscettibili ad attacchi a correlazione.

Osiris Serverless Portal System(solitamente abbreviato in Osiris) è un programma freeware per la creazione di portali web completamente distribuiti tramite p2p e autonomi dai comuni server per i sistemi operativi Microsoft Windows, GNU/Linux e Mac OS X.A differenza dei comuni strumenti utilizzati per "pubblicare informazioni" su Internet quali ad esempio CMS, Forums o Blogs che si basano su un sistema centralizzato, i dati di un portale creato con Osiris vengono condivisi via P2P tra tutti i suoi partecipanti. Grazie a questa architettura, in cui tutti i contenuti necessari alla navigazione (sia grafici che testuali) vengono replicati su ogni macchina, è possibile utilizzare il portale senza un server centrale ("serverless" significa appunto "senza server"). Si prevengono cosi le possibilità che il portale non sia raggiungibile a causa di attacchi DDoS, di limitazioni imposte dagli Internet Service Provider (policy, traffico, censura, ecc.) o di guasti. In quest'ottica si può realmente parlare di un portale "free" secondo le due accezioni della lingua inglese: free nel senso di "gratuito",ma anche "libero" da controlli esterni.
Osiris ha molte caratteristiche peculiari che lo rendono attualmente un prodotto unico, frutto di una fusione tra il PTP e i portali web:
Permette a chiunque di creare un portale gratuitamente, senza dipendere da nessuno e senza dover avere particolari conoscenze tecniche.
Permette di creare contenuti in modo anonimo, consentendo di contribuire alla libertà di espressione e di parola.
Osiris offre un motore di ricerca full-text per i portali che consente una ricerca tra tutti i contenuti.
Basso utilizzo di risorse, con l'aumento degli utenti in un portale si ha una diminuzione del carico di lavoro sul singolo nodo, in quanto questo viene distribuito tra tutti i partecipanti.
Sfrutta un'infrastruttura p2p (basata su Kademlia)per la distribuzione di contenuti strutturati in portali,campo d'applicazione in cui le alternative sono poche e di difficile utilizzo.
Utilizza una tipologia di amministrazione e di gestione dei contenuti basato su reputazioni e applicabile unicamente attraverso un sistema distribuito, dato che solo grazie a questo tipo di architettura non è possibile imporre restrizioni derivanti dal possesso di server centrali.

Darknet: Le Reti Oscure (Freenet, anoNet, StealthNet, I2P)

Una Darknet (rete oscura) è una rete virtuale privata dove gli utenti connettono solamente persone di cui si fidano. Nel suo significato più generale, una Darknet può essere qualsiasi tipo di gruppo chiuso e privato di persone che comunicano ma il nome è più spesso usato nello specifico per reti di condivisione di file. Il termine fu originariamente coniato negli anni settanta per designare reti che erano isolate da Arpanet (la vecchia internet) per motivi di sicurezza. Per Darknet ci si riferisce anche al Deep Web, ovvero a tutto ciò che non viene indicizzato sui motori di ricerca.
Pensate che la parola "Invisible Net" veniva già utilizzata nel 1994. Però ai tempi era comprensibile la cosa perchè i motori di ricerca non esistevano e se c'era qualcosa di simile non era assolutamente paragonabile a quelli di oggi.


Vediamone qualcuna nei particolari:
StealthNet tramite la rete RShare, fornisce un buon grado di sicurezza ed anonimato agli utenti che lo utilizzano. Nell'uso dei programmi P2P non anonimi è facile tracciare l'IP di un utente ed i dati che sta scambiando,provocando una lesione dei diritti alla privacy.
Questo accade perché nei P2P non anonimi il trasferimento dei dati avviene in modo diretto tra mittente e destinatario. Quindi è facile, analizzando il flusso di pacchetti trasmessi, rintracciare chi sta inviando, chi sta ricevendo e cosa si sta scambiando. Questo comportamento è tipico delle associazioni Anti-P2P che analizzano il traffico P2P per scoprire trasferimenti di materiale coperto da copyright, andando però in tal modo a ledere la privacy degli utenti che non usano i programmi di file sharing in modo illegale. L'analisi del traffico è resa più difficile, se non impossibile, nella rete RShare perché lo scambio di dati non avviene principalmente in modo diretto tra mittente e destinatario.
Infatti, prima di arrivare a destinazione, i dati vengono instradati attraversano altri nodi della rete RShare. Ciò indica che ogni nodo della rete RShare non utilizza la propria banda solo per lo scambio dei propri file, ma anche per instradare ulteriori informazioni/dati riguardanti altri nodi della rete.


anoNet è una rete Friend To Friend(F2F) decentralizzata costruita usando programmi router BGP e VPN.anoNet lavora rendendo difficile conoscere le identità degli altri sulla rete permettendogli di ospitare anonimamente contenuti e servizi IPV4.
Per saperne di più: Cos'è anoNet: Guida e Configurazione


Freenet è una rete decentralizzata, creata per resistere alla censura,che sfrutta le risorse(banda passante,spazio su disco)dei suoi utenti per permettere la pubblicazione e la fruizione di qualsiasi tipo di informazione. Freenet è stata costruita pensando ad anonimato e sicurezza, non alla velocità di trasmissione. Questa caratteristica la rende poco indicata per lo scambio di files di grosse dimensioni.Sebbene molte nazioni censurino le comunicazioni per motivi diversi, hanno tutte una caratteristica comune: qualcuno deve decidere cosa tagliare e cosa mantenere, cosa considerare offensivo e cosa no. Freenet è una rete che elimina per chiunque la possibilità di imporre la sua scala di valore sugli altri; in pratica, a nessuno è permesso di decidere cosa sia accettabile.
La tolleranza verso le opinioni altrui è fortemente incoraggiata, agli utenti è richiesto di non prestare attenzione ai contenuti che non approvano. La versione 0.1 uscì nel marzo del 2000.
Conoscere con esattezza l'impatto di Freenet all'interno di nazioni che operano una forte censura sui cittadini è difficile per via del funzionamento interno di Freenet. In Cina il gruppo Freenet-China ha tradotto Freenet in cinese e lo sta distribuendo tramite CD e dischetti. Per la sua stessa natura, Freenet è da sempre al centro di discussioni e critiche. La maggior parte di queste contesta il fatto che la stessa tecnologia che permette ai suoi utenti di comunicare le proprie idee senza che si possa risalire all'identità di chi le ha pubblicate o di chi le ha lette, può anche essere usata per pubblicare materiale illecito. In ogni caso Freenet è stata progettata per resistere alle deformazioni: i contenuti che non vengono letti per un lungo periodo scadono e scompaiono. La rete Freenet è progettata per essere resistente, per questo i processi di funzionamento interni lavorano tutti coperti da anonimato e sono decentralizzati su tutta la rete. Il sistema non ha server centrali e non è soggetto a controlli né da privati né da organizzazioni. Nemmeno l'ideatore di Freenet ha alcun controllo sul sistema.
La rete è stata progettata in modo tale che le informazioni vengano crittografate e replicate su molti diversi nodi in continuo cambiamento in tutto il mondo. È estremamente difficile per un attaccante capire quali nodi stiano rendendo disponibile un determinato file in un certo momento e gli stessi tenutari dei nodi non sanno mai cosa stanno distribuendo. Questo li mette al sicuro da eventuali reati di detenzione. Lo scopo di Freenet è immagazzinare documenti e permetterne la lettura attraverso indirizzi univoci (altrimenti detti "chiavi") in modo simile a quanto accade sul web tramite il protocoll HTTP. La rete è costituita da un gran numero di nodi che si scambiano informazioni: ogni nodo comunica con i limitrofi attraverso il protocollo di Freenet; non esiste una divisione tra "client" e "server" su Freenet: tutti i partecipanti agiscono in entrambi i modi, permettendo sia di effettuare richieste di informazioni ad altri nodi sia di inviare documenti in risposta alle richieste altrui.
Per saperne di più: Come Funziona Freenet(Deep Web)


Entropy, si trattava di una rete P2P decentralizzata per la costruzione di siti anonimi (simile a Freenet) e che garantiva l'anonimato dei suoi utenti. Entropy era scritto in C. Freenet invece (il predecessore diciamo) era scritto in Java. Utilizzava banda e spazio di archiviazione dei computer dei membri per consentire agli utenti di pubblicare anonimamente o ottenere informazioni di ogni tipo.
Entropy è l'acronimo di " Emerging Network To Riduce Orwellian Potency Yield " riferendosi al celebre romanzo scritto da George Orwell (1984). Ogni client di Freenet poteva essere configurato per funzionare sulla rete Entropy. Tuttavia, i dati memorizzati per Entropy e Freenet non erano compatibili, quindi non condividevano informazioni. Per problemi di sicurezza, la rete fu quasi subito abbandonata.


I2P, originariamente chiamata Invisible Internet Project, è un Open Source per la realizzazione di una rete anonima. La rete offre un livello in cui le applicazione possono scambiarsi dati, messaggi, navigare e quant'altro. Tutti i dati sono avvolti con diversi livelli di crittografia.Sebbene molti sviluppatori abbiano preso parte alla community di Invisible IRC Project e Freenet, non vi sono differenze significative tra i loro progetti e concetti. IIP è stato un server IRC anonimo centralizzato, Freenet è una rete peer-to-peer decentralizzata, creata per resistere alla censura.
Per saperne di più: Come Funziona I2P (Guida ed Installazione)


Ma le reti anonime non finiscono qui! Oltre a TOR, ci sono anche Osiris ed Usenet!
Per approfondire: Come Funziona Osiris e Cos'è e Come Funziona Usenet.
Qui invece trovate: ZeroNet ed Hyperboria.
E i servizi segreti nonchè il governo americano che reti usano? Le Reti JWICS, SIPRNet e NIPRNet




Per saperne di più vi rimando anche agli articoli inerenti allo stesso argomento (trattati in passato):
Deep Web Cos'è?
Come Guadagnare Bitcoin Gratis(Guida Freebitcoin)
Grams: Motore Di Ricerca Per Il Deep Web
Come Navigare Nel Deep Web Con Freenet
Guida Deep Web 2013
Navigare Con TOR Browser
Navigare Nel Deep Web Con Una VPN
Nuovi Links Italiani Deep Web(2014)
Links Italiani Deep Web(2013)
Links Italiani Freenet(2014)
Accedere Al Deep Web Senza Software
Link Per Il Deep Web(Freenet e TOR)
Guadagnare Bitcoin(Guida per pagare sul Deep Web)
How To Access Deep Web

lunedì 6 febbraio 2012

Rapidshare: La Faccia "Pulita" Del File Sharing


Megaupload era un sito che consentiva di caricare, scaricare e condividere i propri file. Molti altri servizi del tutto similari, una volta appresa l’iniziativa con cui DOJ ed FBI hanno portato sotto sequestro il sito di Kim Dotcom, hanno chiuso i battenti volontariamente o hanno almeno fatto un passo indietro, limitandosi a fungere da servizi di storage remoto senza alcuna funzionalità aggiuntiva. Un nome, però, sembra in questa fase distinguersi dalla massa: trattasi di RapidShare, che nel tempo ha tentato di percorrere una strada propria e che oggi non cambia opinione.
Oggi, anzi, rivendica la propria diversità.
Per molti versi Rapidshare e Megaupload possono essere servizi assimilabili.
Tuttavia dietro l’apparenza sembrano esserci matrici molto differenti.
Una differenza che può essere ricollegata direttamente ai due fondatori: Kim Dotcom e le sue auto di lusso da una parte, Christian Schmid ed i suoi 600 mila dollari spesi nel 2010 per legittimare il proprio operato con azioni di lobby dall’altra.
Ma la differenza tra le due parti non può essere pesata soltanto in termini numerici, considerando il materiale pirata come una unità di misura: il processo alle intenzioni, in questo caso, è materia prima del contendere.
A spiegare il concetto è direttamente il portavoce RapidShare Daniel Raimer, secondo il quale (rispondendo a domanda specifica) circa il 5% del materiale ospitato sui server del servizio sarebbe illegale.
Ma non è questa una reale ammissione, quanto piuttosto una semplice stima: il gruppo non ha elementi per valutare la legittimità o meno dei file, ma una analisi dei dati di download rende chiare certe dinamiche e consente di capirne l’origine.
Tuttavia, secondo Raimer, tale percentuale è di per sé insignificante poiché il rischio è quella di usare il numero come termine di paragone.
Secondo RapidShare, insomma, non è importante capire quanto materiale fosse illegalmente caricato su Megaupload: quel che conta è il modello posto in essere.
La colpa di Megaupload, insomma, non sarebbe quella di aver ospitato materiale pirata, quanto piuttosto quella di aver incoraggiato questo tipo di attività: premiare chi carica materiale vietato mediante appositi programmi di incentivo è ciò che siede Megaupload dalla parte del torto. L’assenza di tali pratiche è ciò che siede, quindi, RapidShare dalla parte della ragione.
RapidShare rivendica inoltre il proprio atteggiamento proattivo: sebbene si neghino responsabilità circa il fenomeno della pirateria, il gruppo promuove un atteggiamento responsabile che, a partire dai servizi di hosting fino agli Internet Service Provider, dovrebbe collaborare nel tentare di soffocare la pirateria nelle sue varie forme e nelle sue varie manifestazioni.
Il gruppo nello specifico avrebbe un team dedicato per la valutazione degli abusi sui server, così da tagliare i ponti con le dinamiche più smaccatamente irregolari. RapidShare anche sotto questo aspetto sbandiera la propria diversità e non fa quindi passi indietro: Megaupload, Filesonic, Fileserve ed altri sono qualcosa di diverso, che la stessa RapidShare addita e punisce.
Perché la pirateria, prima di essere sostanza, è anzitutto forma.