#Cercadors: internet és el que ens mostren

Creat per Kim el 23 September 2018 · 206 cops Arxivat a Cercadors | Software Lliure
 

Tots fem servir cercadors per trobar alguna cosa a la xarxa, quan no tenim una adreça directa i volem saber quelcom fem servir un motor de cerca, un motor de cerca és un programari dissenyat per cercar informació però es compon de tres processos per fer aquesta tasca.

  • El robot web o crawler
  • L'indexació
  • la cerca de resultats

El robot web és un bot que inspecciona la xarxa de forma automatitzada, analitza les pàgines web per trobar enllaços i els indexa seguint un determinat grup de regles, el robot visita aquests enllaços i segueix el mateix mecanisme de forma recurrent.

El robot web indexa totes les pàgines guardant una còpia en catxe per poder ser carregades amb més velocitat i recull dades segons estigui programat per ser utilitzades en la cerca dels usuaris per poder ser trobades amb més facilitat.

Els cercadors retornen resultats segons la consulta feta per l'usuari a la base de dades indexada pel robot web.

Aquesta es la definició tècnica més bàsica de com funciona un motor de cerca per dins, però depen amb qui dipositem la nostra confiança aquesta pot ser traïda. Sabem que els més usats com Google o Bing recullen moltes dades dels seus usuaris però el que és pitjor és que a causa del perfil personal que els seus algoritmes crean els resultats obtinguts en una cerca són filtrats segons els nostres gustos de forma automatitzada, així doncs una cerca per un usuari sobre un tema concret no donarà els mateixos resultats que per un altre mentre tinguin la sessió iniciada. Això és a causa del que anomenem la bombolla de filtre, els algoritmes pensen per nosaltres i seleccionen les notícies que creuen que poden ser més interessants pel nostre perfil. En termes de marketing això deu tindre un sentit per millorar l'experiència de l'usuari i mantenir-nos més temps dintre del seu entorn però vist des de un altre perspectiva aixó es una forma de censura de la informació intolerable que ja ha s'ha explotat en alguns països per condicionar indecisos en eleccions presidencials.

Aquestes tècniques han donat lloc a cercadors més ètics propers a moviments anti rastreig dels usuaris com Duck Duck Go aquests programes prometen no guardar informació de l'usuari, no perseguir-te amb anuncis personalitzats i no fer-te un seguiment i la veritat és que funcionen prou bé, però no és suficient...

Nosaltres volem eines que ens portin a la sobirania tecnològica, per aconseguir aquesta fita necessitem dues característiques, la primera és que el programari sigui programari lliure, compte, lliure no obert, el codi obert està és un codi que està disponible a la xarxa per ser reutilitzat i beneficiar-se de la sinergia de la comunitat d'una forma pragmàtica sense l'ètica del codi lliure, per aquest motiu el codi lliure permet que un projecte obert no hagi d'obligar al fet que els subproductes derivats siguin oberts per tant ens trobem codi obert que té parts del seu projecte no oberts, com Telegram o en aquest cas que ens ocupa Duck Duck Go!.

En efecte, el cercador de l'aneguet és codi obert en la seva majoria menys la part de servidor, la part que no veiem, i la raó d'això segons el seu fòrum és per no perdre el negoci, ja que asseguren que si el codi fos obert hi perdrien diners, llavors el concepte que tenen del codi obert és un model de negoci ens ho deixen clar. Si a això li sumem que és un projecte centralitzat que no podem descarregar i instal·lar en el nostre servidor i fer amb ell el que vulguem llavors estem davant d'un software que no compleix amb les característiques que dèiem que ens porten a la sobirania tecnològica.

Però existeixen alternatives que si compleixen aquestes característiques, anem a veure un parell d'elles.

SearX

Searx és un programari escrit sota la llicència AGPLv3 que protegeix la privacitat dels seus usuaris, no comparteix les adreces ip ni l'historial de cerca amb tercers, per defecte i al contrari que els cercadors que em mencionat Searx utilitza http post en comptes de peticions get per tal que els termes de cerca no apareguin en els logs, els resultats de cerca són links directes al lloc no links de redirecció com a Google però si això no és prou bo resulta que Searx es pot instal·lar en el teu propi servidor per tindre un control total de les teves dades.

Aquí un llistat d'instàncies públiques que pots fer servir.

Yacy

Yacy és un cercador lliure que utilitza una xarxa peer-to-peer com a infraestructura. No hi ha un servidor central tots els nodes participen de l'indexació del robot de cerca. El programa és programari lliure sota llicència GPL. Com és una xarxa p2p sense control, i no hi ha node central, els resultats de les cerques no poden ser censurades, i la fiabilitat està assegurada. El disseny de YaCy permet fer un ús de de xarxes darknet, a on els clàssics cercadors de Internet no poden operar, com per exemple en xarxes com Tor, I2P o Freenet.

Yacy també permet construir un restringit a un sol domini per tant es una bona solució per crear motors de cerca a pàgines web, segurament en un temps no molt llunyà farem alguna prova aquí a Surt del Cercle

Creative Commons License  Aquest article està escrit sota la llicència Creative Commons Attribution-ShareAlike 4.0 International License.