The following is the transcript of a speech by Cory Doctorow, original text is available here.
Paolo Attivissimo mi ha cortesemente aiutato a dare un senso compiuto alla mia traduzione; ogni errore nel testo è mio. Il testo originale è disponibile qui. Per quanto possibile, è stata mantenuta la formattazione originale.
Anche se conquistiamo il diritto di possedere e comandare i nostri computer, resta un dilemma: quali diritti devono concedere i proprietari agli utenti?
Cory Doctorow ha tenuto questo discorso presso Google in agosto 2012 e il mese prima per The Long Now Foundation.
Alla fine del 2011 a Berlino ho tenuto un discorso intitolato “The Coming War on General Purpose Computing” [L’imminente guerra pe il computer universale].
In estrema sintesi, le ipotesi che avevo formulato erano queste:
– I computer e Internet sono dappertutto e il mondo dipende sempre più da loro.
– In passato avevamo dispositivi differenziati: lavatrici, videoregistratori, telefoni, automobili, ma ora abbiamo solamente dei computer in scatole differenti. Per esempio, le automobili moderne sono computer dentro i quali ci sediamo, i Boeing 747 sono computer volanti con caricato Solaris, mentre gli apparecchi acustici e i pacemaker sono computer che introduciamo nel nostro corpo.
– Questo significa che tutti i nostri futuri problemi sociopolitici avranno a che fare anche con dei computer e che chi aspira a regolamentarli potrebbe dire cose come “Fate in modo che le automobili a guida automatica non possano essere programmate per fare Drag Race” oppure “Fate in modo che le stampanti 3D per usi biologici non possano fabbricare organismi pericolosi o composti vietati”
Il tutto può essere riassunto in “Createmi un computer universale che esegua tutti i programmi tranne quel particolare programma che mi spaventa.”
Ma c’è un problema. Non sappiamo come creare un computer che possa eseguire ogni programma che riusciamo a compilare tranne quelli che fanno incazzare le autorità o sovvertono un modello di business o ci rendano complici di un criminale.
La migliore approssimazione di una cosa del genere è un computer che contiene spyware, ovvero un computer che, se l’utente fa la cosa sbagliata, si può mettere in mezzo e dire “Mi spiace, Dave. Purtroppo non posso farlo.”
Su un computer di questo tipo girano programmi pensati per nascondersi al proprietario del computer stesso e impedirgli di modificarli o disabilitarli. In altre parole, il DRM (Digital Rights Management).
Questi computer sono una pessima idea per due motivi essenziali. Innanzi tutto non risolvono il problema. Aggirare il DRM non è difficile per i malfattori: la lezione impartita dalle guerre sul copyright è che il DRM viene aggirato quasi immediatamente.
Il DRM funziona solamente se il programma che dice “Mi spiace, Dave. Purtroppo non posso farlo” rimane segreto. Una volta che i più bravi aggressori informatici del mondo lo mettono in circolazione, il segreto è noto a tutti.
Il secondo motivo è che il DRM ha una propria sicurezza intrinsecamente debole , che quindi rende più debole la sicurezza complessiva.
La certezza di sapere esattamente quale software stia girando su un computer è fondamentale per la sicurezza; non possiamo sapere se il software caricato su un computer è sicuro se non sappiamo esattamente che software sta girando su quel computer.
Implementare un “Mi spiace, Dave. Purtroppo non posso farlo” nei computer crea un’enorme vulnerabilità della sicurezza: chiunque riesca a prendere il controllo di questa funzione può fare ai computer cose di cui gli utenti non si possono accorgere.
Inoltre, una volta che un governo pensa di aver “risolto” un problema usando il DRM, con tutte le debolezze che si porta dietro, si crea un incentivo perverso a rendere illegale raccontare alla gente i metodi che possono minacciare i DRM. Mi riferisco a cose come il modo in cui funziona un DRM oppure discorsi tipo “ecco un difetto del DRM che permette ad un attaccante di spiarti attraverso la tua webcam o di ascoltarti attraverso il microfono del tuo computer”.
Ho ricevuto molti riscontri da illustri informatici, esperti di tecnologia, sostenitori delle libertà civili e ricercatori dediti alla sicurezza dopo il mio discorso al 28C3. All’interno di questi campi c’è un diffuso consenso sul fatto che, a parità di condizioni, i computer sono più sicuri e la società viene servita meglio quando i proprietari dei computer possono controllare il software che ci gira sopra.
Esaminiamo per un momento le implicazioni di tutto questo.
La maggior parte dei computer moderni è equipaggiata con il Trusted Platform Module (TPM), un coprocessore protetto montato sulla scheda madre. Le specifiche dei TPM sono pubbliche e un’ente del settore attesta la conformità a tali specifiche. Finché sono ben fatte (e l’ente certificatore è diligente) si può essere ragionevolmente certi di possedere nel proprio computer un buon TPM che funziona bene e che rispetta fedelmente le specifiche.
Come fa il TPM a garantire la sicurezza? Attraverso alcuni segreti che contiene: le chiavi crittografiche. Ma è sicuro anche perché è progettato per evidenziare eventuali manomissioni: se si cerca di estrarre le chiavi dal TPM o di rimuoverlo o sostituirlo, la cosa apparirà evidente al possessore del computer.
Una delle minacce al TPM è che un malfattore (o un governo, o una forza di polizia o qualsiasi altra forza ostile) potrebbe provare a compromettere un computer: è l’evidenziazione delle manomissioni è a permettere di sapere se il TPM di un utente è stato manomesso programmato per segnalare l’avvenuta manomissione all’utente.
Un’altra ipotesi di minaccia del TPM è che del software ostile infetti il computer.
Una volta che un computer viene infettato in questo modo si corrono gravi rischi. Tutti sensori connesse al computer (microfono, webcam, accelerometri, lettori di impronte digitali, GPS) possono essere attivate senza che l’utente lo sappia. Ed ecco che i dati finiscono nelle mani dei cattivi.
E tutti i dati registrati sul computer, come documenti personali, password registrate, cronologia dei siti visitati? Anche loro possono finire nelle mani dei cattivi o possono essere cancellati.
Tutti i tasti che vengono premuti (incluse le password!) possono essere registrati. Tutte le periferiche connesse (stampanti, scanner, controller SCADA, dispositivi per la risonanza magnetica, stampanti 3D) possono essere utilizzate di nascosto o alterate surrettiziamente.
E se le “altre periferiche” fossero un’automobile o i sistemi di bordo di un aereo? O il vostro nervo ottico, la vostra coclea o i monconi delle vostre gambe?
Quando un computer si avvia, il TPM può chiedere al bootloader un suo hash firmato digitalmente e verificare che la firma provenga da una fonte ritenuta attendibile. Una volta che ci si fida che il bootloader compia il proprio dovere, gli si può chiedere di verificare le firme dei file del sistema operativo, il quale, se passa la verifica, può a sua volta controllare le firme dei programmi che esegue.
Questo assicura che l’utente sappia quali programmi stiano girando sul suo computer… e che gli eventuali programmi che girano di nascosto lo facciano perché hanno sfruttato un difetto del bootloader, del sistema operativo o di altri componenti, non perché nel sistema è stato introdotto un nuovo difetto allo scopo di creare un modo di nascondere qualcosa all’utente.
Questo mi ricorda sempre Cartesio, che parte affermando di non poter dire ciò che è vero e ciò che è falso perché non era nemmeno sicuro di esistere. Poi trova un metodo per dimostrare di esistere e di potersi fidare dei propri sensi e della propria ragione. Avendo trovato un piccolo nucleo di certezza stabile su cui elevarsi, vi costruisce sopra un’impalcatura logica e alla fine un intero edificio.
Allo stesso modo, un TPM è un nucleo di certezza stabile: se c’è, può informare l’utente in maniera affidabile sul software che sta girando sul suo computer.
Potrebbe sembrare strano sentire una persona come me che parla bene del TPM. Dopotutto, queste sono le tecnologie che consentono di bloccare i telefoni, i tablet, le console e anche alcuni PC in modo tale che non possano eseguire il software desiderato dall’utente.
Jailbreaking significa di solito trovare dei sistemi per sconfiggere una tecnologia TPM o similare, quindi perché uno vorrebbe desiderare di avere un TPM nel proprio computer?
Come tutte le cose importanti, il diavolo si annida nei dettagli.
Immaginiamo per un attimo due diversi modi di implementare un TPM.
1) Blocco completo – Il TPM viene fornito con una serie di firme che ritiene affidabili e un bootloader può essere eseguito solamente se viene firmato da un ente ritenuto affidabile dal TPM. Inoltre, dal momento che il bootloader determina quale sistema operativo viene caricato, il proprietario non dispone del controllo del proprio computer.
2) Certezza – È l’utente del computer a dire al TPM quali sono le chiavi di cui si fida, per esempio Ubuntu, EFF, ACLU e Wikileaks, e il TPM dice all’utente se i bootloader che trova sul disco sono stati firmati da questi enti. Il TPM è in grado di segnalare fedelmente la firma su qualunque altro bootloader che trova e permette all’utente di decidere se fidarsi di uno o più dei suddetti enti
Con un certo livello di approssimazione i due scenari descritti corrispondono al funzionamento rispettivamente di iOS e di Android: iOS consente di eseguire solamente i programmi approvati da Apple, mentre Android permette di abilitare un’opzione per eseguire qualsiasi tipo di programma. Tuttavia un punto critico di Android è che non ha la possibilità di eseguire funzioni basate sulla crittografia sul software prima del boot per verificare se il software che si sta per eseguire è effettivamente quello che si pensa di eseguire.
È libertà, ma non è certezza.
In un mondo in cui i computer di cui stiamo parlando possono ascoltarci e vederci, in cui ci infiliamo dentro di essi, in cui li impiantiamo chirurgicamente nel nostro corpo e in cui guidano gli aerei e le automobili che utilizziamo, la certezza è una gran bella cosa.
Ecco perché mi piace l’idea del TPM, purché sia implementato per fornire certezza e non per un blocco completo.
Se il concetto non è chiaro, vediamola in questo modo: una “guerra per il computer universale” è quella che scoppia quando i fanatici del controllo governativi e aziendali esigono di poter controllare i nostri computer da remoto.
Anche coloro che si difendono da questi attacchi sono, come me, fanatici del controllo, ma sono persone che ritengono che i proprietari di dispositivi debbano poter controllare i propri computer.
Entrambe le fazioni vogliono il controllo; la differenza è a chi vorrebbero affidarlo.
Il controllo richiede conoscenza. Se si vuole essere sicuri che una determinata canzone possa essere spostata soltanto su un iPod, ma non possa essere trasferta altrove, l’iPod ha bisogno di sapere che le istruzioni che gli vengono impartire dal PC al quale è collegato provengono da un iTunes approvato da Apple. L’iPod ha bisogno di essere sicuro che i comandi non provengano da qualcosa che sta impersonando iTunes per convincere l’iPod a dargli accesso ai file.
Se si vuole essere sicuri che un videoregistratore digitale non registri il film che è appena stato acquistato in modalità on demand per essere visto una sola volta, bisogna essere sicuri che il sintonizzatore che sta ricevendo il video dialoghi solamente con i dispositivi approvati i cui costruttori hanno promesso di rispettare il flag “non registrare” di alcune trasmissioni.
Se voglio essere certo che qualcuno non mi osservi attraverso la mia webcam, devo essere sicuro della natura dei driver e del fatto che rispettino la regola che la spia a fianco alla telecamera si accenda sempre quando è in corso una ripresa.
Se voglio essere sicuro che nessun keylogger registri le password che sto digitando attraverso la tastiera, devo essere sicuro che il sistema operativo non mi stia mentendo quando dice che non ci sono keylogger installati sul mio sistema.
Che si voglia essere liberi o si voglia schiavizzare, si ha l’esigenza del controllo. E per il controllo è necessaria la conoscenza.
Questo è l’oggetto dell’imminente guerra contro il computer universale. Ma ora voglio analizzare lo scenario che si prospetta se la vinciamo.
Quello che potremmo trovarci ad affrontare è l’interessante prospettiva che chiamo la futura guerra civile per il computer universale.
Supponiamo che una vittoria della fazione che vuole la libertà nella guerra contro i computer universali porti a computer che consentano ai loro utenti di sapere cosa sta girando su di essi. I computer riporterebbero fedelmente gli hash e le firme elettroniche di ogni bootloader che trovano, controllerebbero i programmi in esecuzione e permetterebbero ai loro proprietari di indicare chi può firmare i bootloader, i sistemi operativi, eccetera.
Ci sono due argomenti a favore.
1) Diritti umani – In un mondo fatto da computer, progettare un computer che possa scavalcare le decisioni del proprietario ha serie implicazioni in fatto di diritti umani. Oggi ci preoccupiamo che il governo iraniano potrebbe imporre controlli sull’importazione di computer per fare in modo che entrino solamente quelli dotati di un sistema di sorveglianza non individuabile. Domani potremmo preoccuparci che il governo britannico richieda che gli apparecchi acustici impiantati con il contributo economico del NHS [l’ente pubblico britannico per la sanità, N.d.T.] abbiano sistemi per bloccare la ricezione di frasi “estremiste” e/o per registrarle e segnalarle alle autorità.
2) Diritti di proprietà – La dottrina della prima vendita è un elemento importante del diritto dei consumatori. Sancisce che se si compra una cosa, l’acquirente ne diventa proprietario e deve essere libero di farci quello che vuole, anche se è contro gli interessi del venditore. Chi si oppone all’uso dei DRM usa lo slogan “L’hai acquistato, quindi è tuo.”
I diritti di proprietà sono un argomento molto potente e negli USA valgono il doppio, in quanto una forte applicazione di questi diritti è vista come la base di tutte le soluzioni ai problemi sociali.
Questi diritti valgono addirittura il triplo nella Silicon Valley, dove è impossibile girarsi senza colpire un liberale secondo il quale la maggiore, se non l’unica, funzione legittima dello Stato è far rispettare i diritti di proprietà e i relativi contratti.
Quindi, quando si vuole vincere una battaglia tra nerd, e non solamente quella, i diritti di proprietà sono un’arma potente da custodire nel proprio arsenale.
Ecco perché chi si oppone al copyright è così suscettibile all’espressione “proprietà intellettuale”. Questa locuzione sintetica e carica di ideologia è diventata popolare negli anni ’70 come sostituto di “monopoli derivanti dalla regolamentazione” e “monopoli dei creatori” perché è molto più facile convincere il Congresso a promulgare leggi che difendano la proprietà che ottenere il suo aiuto nel far valere un monopolio.
E qui entra in gioco la guerra civile.
Sia i diritti umani, sia quelli di proprietà richiedono che i computer non siano progettati per permettere un controllo remoto da parte del governo, delle aziende o di altre istituzioni. Entrambi i diritti garantiscono che i proprietari possano decidere quale software eseguire e possano scegliere liberamente il nucleo di certezza sul quale costruire l’impalcatura della sicurezza del loro computer.
Ricordiamoci che la sicurezza è relativa: si è al sicuro da attacchi contro la libertà di fruire della propria musica se si può controllare l’ambiente in cui opera il proprio computer. Questo, tuttavia, è a discapito della sicurezza dell’industria musicale di poter guadagnare tramite una sorta di noleggio ogni volta che viene ascoltata la musica venduta.
Se potete scegliere il nucleo sul quale costruire l’impalcatura, ottenete il controllo e il potere per difendervi contro eventuali aggressori. Se sono il Governo, la RIAA o Monsanto a selezionare il nucleo, sono loro a ottenere il controllo e il potere di difendersi da voi.
In questo dilemma sappiamo da che parte stiamo e concordiamo che come minimo i proprietari dei computer dovrebbero avere la possibilità di conoscere e controllare i propri dispositivi.
E gli utenti?
Gli utenti dei computer non hanno sempre i medesimi interessi dei proprietari e diventeremo sempre più utenti di computer che non possediamo.
La presa di posizione sui conflitti tra proprietario e utente sarà una delle questioni ideologiche più ricche di significato della storia della tecnologia. Non conosco nessuna risposta semplice che aiuti nel prendere questa decisione.
Iniziamo con la posizione totalmente a favore del proprietario, il “massimalismo della proprietà.”
Se il computer è mio, dovrei avere il diritto assoluto di stabilire i termini di utilizzo per chiunque voglia utilizzarlo. Se non gli piace, che usi il computer di qualcun altro.
Come funzionerebbe in pratica? Attraverso una combinazione di routine di avvio, messa in evidenza di eventuali manomissioni, leggi e controllo fisico. Per esempio, quando si accende un computer per la prima volta viene richiesto al proprietario di creare una buona password segreta, magari firmata dalla sua chiave privata.
Senza quella chiave nessuno è autorizzato a modificare l’elenco dei firmatari fidati dai quali il TPM del computer accetterà un bootloader. Si potrebbe rendere illegale alterare questo sistema per caricare un sistema operativo che il proprietario non ha autorizzato. Questa legge dovrebbe anche rendere illegale più di quanto non lo sia ora lo spyware e dovrebbe vietare l’installazione segreta di DRM.
Potremmo progettare i TPM in modo tale che se vengono rimossi o manomessi la cosa sia evidente: li si potrebbe mettere, per esempio, in contenitori fragili difficilmente sostituibili una volta che il computer lascia la fabbrica. In questo modo il proprietario si accorgerebbe subito se qualcuno ha apportato delle modifiche al dispositivo, forse portandolo a una condizione sconosciuta e non affidabile. Si potrebbe anche chiudere a chiave il contenitore del computer.
Questa soluzione ha molti benefici, ma ha anche degli aspetti negativi.
Immaginiamo un’automobile a guida autonoma come i prototipi di Google e altri che sono già in giro. È facile capire che siano un gran passo in avanti. Siamo dei pessimi guidatori: le auto ammazzano un sacco di persone. Negli USA sono la prima causa di morte nella fascia di età da 5 a 34 anni.
Sono stato investito da un’automobile e ho danneggiato un’automobile. Sono disposto a sostenere che gli umani non dovrebbero guidare mai.
È anche facile capire come non si possa essere a proprio agio se ci sono persone che possono modificare a piacimento il firmware della propria auto a guida autonoma. Da un lato vorremmo che il software di guida fosse consultabile per poterlo analizzare, dall’altro sarebbe plausibile un discorso del tipo “le automobili sono più sicure se utilizzano un bootloader bloccato che carica solamente il firmware certificato dal Governo”.
Eccoci di nuovo alla questione se permettere al proprietario di decidere cosa fa il suo computer.
Ci sono due problemi con questa soluzione.
In primo luogo, non funzionerebbe. Come ci hanno insegnato le guerre per il copyright, i blocchi del firmware non sono efficaci contro gli aggressori determinati. Chi vuole diffondere il caos attraverso firmware modificato potrebbero farlo con facilità.
Inoltre non è un buon approccio alla sicurezza: se i modello di sicurezza degli autoveicoli dipendono dal corretto comportamento di tutti gli altri veicoli ed esigono che non succeda mai nulla di inaspettato, siamo già spacciati.
Le automobili a guida autonoma dovrebbero essere conservative nell’approccio al loro comportamento e liberali nelle loro attese del comportamento altrui.
Questo è uno lo stesso consiglio che si riceve il primo giorno di scuola guida e rimane valido anche quando l’auto guida da sola.
In seconda istanza suggerisce alcuni spiacevoli parallelismi. Vi ricordate le “autostrade informatiche”?
Immaginiamo di cercare di rendere sicure le nostre strade fisiche richiedendo che lo Stato (o chi per esso) certifichi il firmware dei dispositivi che vi transitano. Come potremmo articolare una politica in merito ai dispositivi che percorrono le altrettanto importanti autostrade informatiche, con analoghi blocchi del firmware per PC, telefoni, tablet e assimilati?
Dopotutto, una rete generalista come Internet significa che sistemi di risonanza magnetica, astronavi e sistemi di controllo del traffico aereo condividano la medesima “autostrada informatica” con videogiochi, macchine per scoregge controllate da un Arduino e telecamere per guardoni vendute dagli spammer di Pearl River Delta.
Consideriamo i sistemi di controllo degli aerei e delle centrali elettriche.
Questo è ancora più difficile. Se la FAA certifica un determinato firmware per i 747, imporrà probabilmente che i 747 siano progettati in modo tale che sia solamente la FAA a controllare le chiavi con le quali vengono firmati i firmware accettati dai bootloader di quegli aerei. Allo stesso modo, la Nuclear Regulatory Commission vorrà avere l’ultima parola sui firmware di controllo dei reattori nucleari.
Questo potrebbe costituire un problema analogo al divieto di modifica del firmware delle automobili, in quanto sancisce il principio che un buon modo per risolvere un problema sia quello di lasciare che “le autorità” controllino il nostro software.
Potrebbe essere anche che gli aeromobili e le centrali nucleari siano già regolamentati ad un livello tale che un ulteriore livello di regolamentazione non si estenderebbe a includere altri aspetti della vita quotidiana: impianti nucleari e aeroplani sono soggetti ad una quantità straordinaria di ispezioni a sorpresa e requisiti di rapporti che sono specifici per il loro settore.
In seconda istanza c’è un problema più grosso in merito al “controllo da parte del proprietario”: che facciamo con le persone che utilizzano i computer senza esserne i proprietari?
Stiamo parlando di persone per le quali l’industria informatica non prova affatto simpatia.
Vengono profusi innumerevoli sforzi per impedire che utenti non proprietari dei sistemi mettano inavvertitamente fuori uso i computer che stanno utilizzando, scaricando toolbar, copiando comandi che leggono su Internet, inserendo chiavette USB infette, installando plugin o certificati non affidabili a o creando buchi di sicurezza nel perimetro della rete aziendale.
Altrettanti sforzi vengono spesi anche per impedire agli utenti di fare danni deliberatamente. Gli utenti installano keylogger e spyware per colpire altri utenti, impadronirsi di segreti, ficcare il naso nel traffico di rete, mettere fuori servizio i loro computer e disabilitare i firewall.
Qui c’è una sorta di simmetria. I DRM e assimilati sono usati da persone che credono che tu non possa e non debba poter stabilire delle politiche sul computer che possiedi. Allo stesso modo i sistemi informatici aziendali sono configurati dal proprietario partendo dal presupposto che non ci si possa fidare che gli utenti configurino le proprie politiche sui computer che usano.
Da ex SysAdmin e CIO, non dico che gli utenti non siano un’impresa difficile, ma ci sono buone ragioni per trattare gli utenti come persone che hanno i loro diritti di stabilire le politiche sui computer che non possiedono.
Iniziamo con un esempio pratico aziendale.
Quando chiediamo libertà per i proprietari, lo facciamo per una serie di ragioni, la più importante delle quali è che i programmatori non possono prevedere tutte le situazioni in cui si potrà trovare il loro programma e che quindi, quando un computer dice “sì”, il proprietario debba possa aver bisogno di dire “no”.
Questo è il principio secondo il quale i proprietari possiedono una consapevolezza locale della situazione che non può essere eguagliata in maniera affidabile da una serie di if/then nidificati.
È anche un punto in cui i principi di comunisti e liberisti convergono.
- Friedrich Hayek pensava che la competenza fosse diffusa e che fosse più facile trovare la consapevolezza della situazione necessaria per prendere buone decisioni molto vicino alla decisione stessa: la devoluzione offre migliori risultati della centralizzazione.
- Karl Marx credeva nella legittimità delle rivendicazioni dei lavoratori in merito al loro ambiente di lavoro, sostenendo che il contributo del lavoro era importante tanto quanto quello del capitale, e pretendeva che i lavoratori fossero trattati come i legittimi “proprietari” del loro posto di lavoro, con il potere di definire le politiche.
Partendo da assunti diametralmente opposti, entrambi credevano che le persone che svolgono effettivamente il lavoro debbano avere il maggior potere possibile.
La morte dei mainframe è stata accompagnata da molta preoccupazione per quello che gli utenti avrebbero potuto combinare all’azienda. In quei giorni gli utenti erano ancora più limitati di oggi, perché potevano vedere solamente le videate ed eseguire le operazioni a cui erano abilitati a livello centrale.
Con la comparsa dei PC, di Lotus 1-2-3 e di VisiCalc i dipendenti rischiarono il posto di lavoro portando quelle macchine in ufficio o portandosi a casa i dati aziendali per elaborarli con quelle macchine .
I lavoratori definirono delle necessità computazionali che non potevano essere soddisfatte dai limiti imposti dalle aziende e dai loro reparti informatici e non credevano che venisse riconosciuta la legittimità delle loro necessità.
Le risposte standard potevano includere una o più combinazioni tra:
- La nostra conformità alle norme proibisce quello che ti aiuterebbe a far meglio il tuo lavoro.
- Se fai il tuo lavoro in quel modo, non possiamo sapere se i risultati sono corretti.
- Tu in realtà credi soltanto di volerlo fare.
- È impossibile far fare a un computer quello che vuoi tu.
- Le politiche aziendali lo vietano.
Potrebbero essere vere, ma spesso non lo sono. E anche quando lo sono, si tratta del tipo di “verità” per le quali diamo a giovani brillanti geek milioni di dollari in venture capital perché le falsifichino, mentre gli assistenti amministratori di sistema di mezza età vengono richiamati per iscritto dalla direzione del personale perché provano a fare le stesse cose.
Il personal computer è entrato in azienda dalla porta di servizio, contro il parere del reparto informatico, senza che il management lo sapesse e con il rischio di richiami o licenziamenti. Poi ha portato alle aziende che l’hanno combattuto ricavi di milioni o miliardi.
Dare ai lavoratori degli strumenti potenti e flessibili era positivo per le aziende, perché la gente è spesso intelligente e vuole far bene il proprio lavoro. Sanno delle cose che il loro capo ignora.
Quindi, come proprietario, non vuoi che il dispositivo che acquisti sia bloccato perché potresti voler fare delle cose che chi l’ha progettato non ha previsto.
E i dipendenti non vogliono che i dispositivi che utilizzano ogni giorno siano bloccati, perché potrebbero voler fare cose utili che il reparto informatico non è stato in grado di prevedere.
Questa è l’anima dell’hayekismo: siamo più intelligenti in periferia che al centro.
Il mondo economico supporta in maniera ipocrita le idee che Friedrich Hayek espresse nel 1940 sul libero mercato. Ma quando si tratta di libertà all’interno delle aziende, siamo fermi a 50 anni prima, all’ideologia del “management scientifico” di Frederick Winslow Taylor. In questo schema i lavoratori sono solamente delle macchine inaffidabili i cui movimenti e azioni devono essere organizzati da un consulente direzionale onnisciente che lavora con un altrettanto saggio management aziendale per determinare l’unico vero modo per eseguire un lavoro. È un sistema “scientifico” come una trapanazione cranica o un test della personalità di Myers-Briggs; è l’ideologia che ha permesso a Toyota di mettere a tappeto le tre grandi di Detroit.
Permettere agli utenti aziendali di fare le cose che secondo loro potranno portare più soldi all’azienda a volte porta effettivamente a un maggiore guadagno.
Questa è la giustificazione imprenditoriale per i diritti degli utenti. È una buona giustificazione, ma ho voluto togliermela di mezzo per poter andare al vero succo della questione: i diritti umani.
Di primo acchito potrebbe sembrare un po’ strano, ma abbiate fiducia.
All’inizio di quest’anno ho seguito un discorso di Hugh Herr, direttore del Biomechatronics Group del MIT Media Lab. I discorsi di Herr sono elettrizzanti. Inizia con delle diapositive di alcune protesi notevoli: gambe, piedi, mani, braccia e un dispositivo che utilizza il magnetismo focalizzato per sopprimere l’attività nei cervelli delle persone con depressione grave e incurabile. I risultati sono sorprendenti.
Poi mostra una sua fotografia mentre sta scalando una montagna. È nudo, attaccato alla roccia come un geco e non ha le gambe: ha solamente delle fantastiche protesi da scalata. Herr guarda il pubblico dal palco e dice “Ah, sì, non ve l’avevo detto? Non ho le gambe, le ho perse per congelamento.”
Si arrotola i pantaloni e mostra un paio di gambe robotiche incredibili e corre su e giù per il palco come una capra di montagna.
La prima domanda del pubblico è “Quanto costano?”
La risposta è una somma con cui si potrebbe acquistare un appartamento a Manhattan o nel centro di Londra.
La seconda domanda è “Chi se le potrà permettere?”
La risposta di Herr è “Chiunque. Se devi scegliere tra 40 anni di mutuo per la casa e 40 anni di mutuo per le gambe, scegli le gambe.”
Quindi è facile considerare la possibilità che ci saranno persone, potenzialmente molte persone, che saranno “utenti” di computer che non possiedono e che sono parte del loro corpo.
Molti tecnici capiscono le ragioni per le quali tu, come proprietario del tuo impianto cocleare, dovresti avere il diritto legale di poter sceglierne il firmware. Del resto, quando possiedi un dispositivo che è chirurgicamente impiantato nel tuo cranio, sembra più che legittimo avere la libertà di scegliere che fornitore di software adottare.
Magari la ditta che ha realizzato il tuo impianto ha il miglior algoritmo di elaborazione dei segnali disponibile al momento, ma se un concorrente brevetta un algoritmo migliore l’anno successivo dovresti essere condannato ad una minor qualità uditiva per il resto della tua vita?
E cosa succede se la ditta che ha realizzato le tue orecchie chiude? E se del software scritto male permette a dei malintenzionati di fare brutte cose al tuo sistema uditivo?
Questi problemi si risolvono solamente con un diritto palese di cambiare il software, anche se la ditta che ha realizzato l’impianto esiste ancora.
Questo aiuta i proprietari, ma gli utenti?
Consideriamo alcuni dei seguenti scenari.
- Sei un minorenne e i tuoi genitori molto religiosi ti pagano il tuo impianto cocleare e chiedono che il software ti renda impossibile udire espressioni blasfeme.
- Sei senza soldi e una società commerciale vuole venderti un impianto cocleare finanziato dalle pubblicità, che ascolta le tue conversazioni e inserisce “discussioni sulle marche che ami.”
- Il tuo governo è disposto a installarti un impianto cocleare, ma archivierà e analizzerà tutto quello che senti senza che tu lo sappia o abbia acconsentito.
Estremizzazioni? La polizia di frontiera canadese è appena stata costretta a rinunciare ad un piano per riempire tutti gli aeroporti nazionali di microfoni nascosti ad alta sensibilità che avrebbero registrato le conversazioni di chiunque.
Il governo iraniano o quello cinese non approfitteranno di queste tecnologie se ne avranno occasione?
Già che parliamo di Iran e Cina, ci sono moltissimi attivisti dei diritti umani secondo i quali la limitazione dei sistemi operativi caricabili al boot è l’inizio di un disastro per i diritti umani. Non è un segreto che le aziende ad alta tecnologia tech sono state ben liete di implementare backdoor per l’”intercettazione legale” nei loro dispositivi per consentire accessi segreti alle comunicazioni senza bisogno del mandato di un giudice. Dal momento che queste backdoor sono diventate uno standard, sono lì anche se il tuo paese non le desidera
In Grecia non ci sono requisiti legali per intercettare legalmente le conversazioni sugli apparati di telecomunicazione.
Durante i bandi di gara delle olimpiadi del 2004-2005, una persona o organizzazione ignota ha attivato la funzione latente di intercettazione, ha raccolto una quantità sconosciuta di conversazioni private anche di alto livello e ha poi disattivato la funzione di intercettazione.
La sorveglianza al centro della rete non è interessante come quella ai confini. Come i fantasmi di Hayek e Marx ci insegnano, tra la gente che fa il lavoro concreto succedono un sacco di cose interessanti che non raggiungono mai gli uffici centrali.
Questo è noto anche ai governi “democratici”. Questo è il motivo per cui il governo bavarese ha installato illegalmente dei “Bundestrojan” (letteralmente dei trojan di Stato) sui computer di alcune persone, ottenendo l’accesso ai loro documenti, alle cose che scrivevano sulla tastiera e a molto altro. Quindi si può ragionevolmente supporre che i governi totalitari saranno ben felici di avvantaggiarsi dal blocco dell’installazione dei sistemi operativi per portare la sorveglianza direttamente all’interno dei dispositivi informatici.
Non si potranno importare computer in Iran a meno che non venga limitata la sua capacità di boot in modo tale da avere solamente sistemi operativi con backdoor d’intercettazione legale incorporate.
In un modello in cui il proprietario ha il controllo completo, la prima persona che utilizza una macchina inizializza l’elenco delle chiavi fidate e lo blocca con una password o con un altro sistema di sicurezza. Quindi l’autorità doganale statale deve inizializzare ogni macchina prima che attraversi i confini per entrare nello Stato.
Magari si potrebbe fare qualcosa per aggirare il blocco, ma questi sistemi sarebbero progettati per rivelare facilmente i tentativi di compromissione, per cui la polizia segreta o un informatore potrebbe accorgersi immediatamente se qualcuno ha fatto qualcosa per tagliare fuori lo Stato dal suo computer. E ovviamente non saranno solamente gli Stati repressivi ad essere interessati.
Ricordiamoci che esistono quattro principali clienti dell’industria attuale del software di censura, dello spyware e del software di blocco: i governi repressivi, le grandi aziende, le scuole e i genitori paranoici.
Le necessità tecnologiche dei genitori apprensivi, dei sistemi scolastici e delle grandi aziende convergono con quelle dei governi di Siria e Cina. Probabilmente non condividono le finalità ideologiche, ma utilizzano strumenti tecnologici terribilmente simili per perseguire i propri obbiettivi.
Siamo molto indulgenti nei confronti di queste istituzioni mentre perseguono i propri scopi: è permesso fare praticamente qualunque cosa, quando si proteggono i propri figli o gli interessi degli azionisti.
Per esempio, ricordate la grande indignazione di ogni parte politica quando è stato rivelato che alcune aziende chiedevano ai candidati dipendenti di consegnare le credenziali di accesso al loro profilo personale di Facebook per ottenere il posto di lavoro?
Le società sostenevano che avevano la necessità di esaminare le liste degli amici e di sapere quello che il candidato diceva loro in privato prima di decidere se una persona era adatta all’assunzione.
I controlli di Facebook sono l’equivalente del XXI secolo dei test delle urine sul posto di lavoro. Sono un mezzo per assicurare che la vita privata degli individui non nasconda segreti sgradevoli che potrebbero compromettere il lavoro.
L’opinione pubblica non ha preso bene la notizia di questa pratica. Dalle interrogazioni al Senato agli editoriali sui quotidiani, il paese intero si è schierato contro questa prassi.
Ma a nessuno sembra dar fastidio che molte società inseriscano abitualmente anche le proprie chiavi di sicurezza intermedie nei dispositivi dei dipendenti (telefoni, tablet e computer). Questo permette loro di spiare il traffico del dipendente su Internet, anche quando è traffico “sicuro” che mostra il solito lucchetto nel browser.
Questo consente al datore di lavoro di leggere ogni sito sensibile che viene caricato dal posto di lavoro: messaggi del sindacato, dati bancari, posta elettronica, assicurazione medica, conversazioni con il medico curante. E naturalmente anche il contenuto della bacheca di Facebook.
C’è un certo consenso sul fatto che questa sia una pratica accettabile perché telefono, laptop e tablet appartengono all’azienda.
Eppure il motivo per cui le società ci assegnano questi dispositivi mobili è che non esiste più nessuna distinzione effettiva tra casa e lavoro.
I sociologi aziendali che studiano il modo in cui utilizziamo i nostri dispositivi scoprono spesso che i datori di lavoro non riescono a mantenere una separazione netta tra i dispositivi e gli account di “lavoro” e quelli “personali”.
Gli USA sono la terra della settimana di 55 ore lavorative, un paese nel quale pochi professionisti si concedono dei veri periodi di vacanza e comunque quando prendono un paio di giorni di ferie portano con sé tutti i dispositivi mobili di lavoro.
Anche nei luoghi di lavoro tradizionali vengono riconosciuti i diritti umani. Non mettiamo telecamere nei bagni per ridurre i furti da parte dei dipendenti. Se il tuo partner ti raggiunge in ufficio all’ora di pranzo e andate nel parcheggio così che lui o lei ti possa dire che secondo il medico il cancro è terminale, saresti inorridito e infuriato se sapessi che il tuo datore di lavoro vi stava spiando con microfoni nascosti.
Ma se utilizzi il computer portatile aziendale per accedere a Facebook durante la pausa pranzo e il tuo partner ti comunica la medesima notizia, ti si chiede di non avere problemi se l’azienda ti ha bersagliato con un attacco man-in-the-middle e ora conosce i dettagli più intimi della tua vita privata.
Si possono citare vari esempi in cui persone ricche e potenti, non solamente carcerati, bambini e lavoratori, diventeranno utenti anziché proprietari.
Ad ogni compagnia di autonoleggio piacerebbe poter piazzare un sistema di tracciatura e controllo a distanza sulle auto che noleggiano. Ricordiamoci che un’automobile è solamente un computer in cui infiliamo il nostro corpo. Per gli autonoleggi sarebbe bellissimo poter registrare ogni posto che viene visitato dai clienti, per fare analisi e “marketing”.
Si potrebbero fare molti soldi modificando in maniera illegale il firmware dei navigatori delle auto a noleggio per fare in modo che i percorsi passino sempre davanti a certi cartelloni pubblicitari o davanti a certe catene di ristoranti.
In genere, più si è giovani e poveri, più si è in basso nella scala sociale del feudalesimo informatico. Più si è giovani o poveri, maggiore è la possibilità che le tue gambe artificiali smetteranno di camminare se ritardi i pagamenti delle rate .
Questo implica anche che qualsiasi teppista che compera il tuo debito da una società di prestiti potrebbe letteralmente, e legalmente, minacciarti di portarti via le tue gambe (i tuoi occhi, le tue orecchie, le tue braccia, la tua dose di insulina o il tuo pacemaker) se non paghi la prossima rata.
Prima ho discusso di come possa funzionare un sistema di controllo finale da parte del proprietario di un computer. Richiederebbe una combinazione di accesso fisico ed evidenziazione di manomissione pensato per dare ai proprietari dei computer il potere di sapere e determinare quale bootloader e sistema operativo stanno girando sul loro computer.
Come potrebbe funzionare lo stesso sistema a livello di utente? Per essere efficace dovrebbe lasciare intatto il computer, in modo tale che quando il proprietario lo riprende sia sicuro di trovarlo nello stato in cui crede che sia. In altre parole, bisogna trovare un sistema per proteggere gli utenti dai proprietari e i proprietari dagli utenti.
Ecco un modello di questo sistema.
Immaginiamo che ci sia un bootloader che riesce a rilevare in maniera accurata e affidabile tutti i kernel e sistemi operativi che trova sul disco. Questo è un prerequisito per dei sistemi controllati dagli Stati, dalle società, dai proprietari e dagli utenti.
Diamo ora al bootloader la capacità di sospendere sul disco in modo criptato qualsiasi sistema operativo che stia girando; aggiungiamo la capacità di selezionare un altro sistema operativo da un dispositivo esterno o dalla rete.
Immaginiamo di andare in un Internet café e che il computer che mi viene assegnato stia eseguendo un sistema operativo che include un sistema di intercettazione legale per trasmettere alla polizia tutto quello che scrivo sulla tastiera e tutti i file del mio disco in un archivio cifrato che lo stato può decifrare.
Sono un avvocato, un medico, un dirigente o semplicemente una persona che non vuole che le proprie cose private siano a disposizione di chiunque abbia come amico un poliziotto corrotto.
A questo punto, con la pressione di una certa combinazione di tasti accedo ad una interfaccia del bootloader che mi chiede l’indirizzo Internet di un sistema operativo alternativo o mi propone di inserire una chiavetta USB per partire con un altro sistema operativo.
Il sistema operativo installato dall’Internet café viene parcheggiato e io non posso vederne il contenuto, ma il bootloader mi assicura che non è attivo e non mi sta spiando mentre il mio sistema operativo viene caricato. Quando ha finito, il bootloader conferma che tutti i miei file di lavoro sono stati cancellati.
Questo impedisce al proprietario del computer di spiarmi e mi impedisce di lasciare del malware nel computer per attaccare il proprietario.
Ci saranno metodi tecnologici per aggirare questo sistema, ma c’è un’enorme differenza tra partire con delle specifiche tecniche che hanno lo scopo di proteggere gli utenti dai proprietari (e viceversa) e con delle specifiche secondo le quali gli utenti devono sempre sottostare al volere del proprietario.
Fondamentalmente, questa è la differenza tra libertà e trasparenza, tra software libero e gratuito e open source.
Diritti umani e diritti di proprietà entrano spesso in conflitto tra loro; per esempio, i padroni di casa non possono entrare in casa vostra senza un adeguato preavviso. In molti posti gli alberghi non possono buttare fuori gli ospiti se si trattengono più a lungo del previsto se pagano il dovuto; questo è il motivo per cui spesso ci sono le tariffe appese alle porte delle stanze.
Il processo di rientro in possesso di beni concessi in prestito, come ad esempio le automobili, è limitato da procedure che richiedono un preavviso e la possibilità di confutare le contestazioni di mancato pagamento.
Quando queste leggi vengono “semplificate” per renderle più facili per i proprietari, vediamo spesso che i diritti umani vengono calpestati. Consideriamo le raffiche di notifiche di sfratto emesse automaticamente senza verifica, che sfruttano dichiarazioni fraudolente per cacciare proprietari puntuali con i pagamenti del mutuo o anche senza alcun mutuo in corso.
Il potenziale di abuso in un mondo informatizzato è molto più grande. L’automobile a guida automatica è in grado di ritornare da sola al deposito della società di ripresa di possesso . Il grattacielo residenziale spegne automaticamente gli ascensori e gli impianti di climatizzazione, lasciando centinaia di persone nel disagio fino al saldo di un pagamento di licenza contestato.
Fantasia? È già successo con i parcheggi multipiano.
Nel 2006 un sistema di parcheggio robotizzato con 314 veicoli modello RPS1000 a Hoboken, New Jersey, prese in ostaggio tutte le auto che ospitava, bloccando il software di gestione finché il proprietario del parcheggio non ha pagato la fattura della licenza che gli veniva contestata.
Hanno dovuto pagare anche se ritenevano di non doverlo fare: che altre soluzioni avevano?
E cosa farai
tu
se una causa con un fornitore significa che potresti diventare cieco, sordo o non poter più camminare o entrare in una depressione suicida?
Il potere contrattuale dei proprietari nei confronti degli utenti è totale e terrificante.
Gli utenti saranno fortemente incentivati a risolvere le vertenze velocemente anziché affrontare i disagi terribili che potrebbero essere inflitti in caso di disputa legale. E se il proprietario del dispositivo è uno Stato o un’azienda di dimensioni analoghe, la possibilità che vengano calpestati i diritti umani diventa altissima.
Questo non significa certamente che il controllo da parte del proprietario sia il male assoluto. Pensiamo ai contatori intelligenti che possono scavalcare le impostazioni di un termostato dell’utente durante le ore di picco di carico.
Questi contatori permettono di ridurre i consumi di fonti energetiche poco ecologiche durante le ore di picco.
Ovviamente possono svolgere il loro lavoro se gli utenti (proprietari domestici che hanno consentito alle compagnie energetiche di installarli) non possono a loro volta aggirarli. Cosa succederebbe se molestatori, truffatori o governi che volessero placare un tumulto popolare utilizzassero questo mezzo per spegnere il riscaldamento durante la stagione più fredda o lo regolassero al massimo durante un’ondata di caldo?
Il climatizzatore dell’abitazione ha potere di vita e di morte sugli abitanti: vogliamo veramente che sia concepito per permettere a d altri, da remoto, di controllarlo contro la volontà degli occupanti?
La domanda è semplice: una volta che vengono emanate delle normative per dispositivi che non possono essere controllati dagli utenti, fino a dove si propagherà questo fenomeno?
Tra le categorie più a rischio ci sarebbe la possibilità di usare queste tecnologie per offrire servizi di dubbia eticità a persone vulnerabili: non puoi permetterti degli occhi artificiali per i tuoi figli? Te li finanziamo noi, se ci consenti di metterli a fuoco su giocattoli sponsorizzati e caramelle nei negozi.
La preclusione della possibilità di aggirare il blocco da parte del proprietario ha comunque i suoi lati negativi, perché significherebbe che ai poveri certe tecnologie non verranno offerte del tutto.
Se posso prendere il controllo a distanza delle tue gambe, posso noleggiartele con la sicurezza di potermele riprendere se non paghi le rate. Se non posso farlo, potrei rifiutare di noleggiarle a meno che tu non fornisca una garanzia di pagamento.
Ma se le tue gambe possono decidere di andare da sole al deposito del noleggiatore senza il tuo consenso , sarai totalmente fregato il giorno in cui rapinatori, stupratori, sobillatori o la polizia segreta scopriranno come prendere il controllo di questa funzione.
La cosa diventa ancora più complessa in quanto siamo gli “utenti” di molti sistemi nel modo più transitorio possibile: tornelli di metropolitane, ascensori, sistemi di rilevamento della pressione arteriosa in ambulatorio, autobus, aeroplani. Diventerà difficile capire come poter creare dei sistemi di controllo da parte degli utenti che non siano senza senso. Possiamo iniziare, però, dicendo che un “utente” è qualcuno che è l’
unico
utilizzatore di un dispositivo per un certo periodo di tempo.
Non è un problema di cui conosco la soluzione. Diversamente dalla guerra contro il computer universale, la guerra civile per i computer universali presenta una serie di enigmi che almeno per me non hanno una soluzione ovvia.
Questi problemi sono lontani e nasceranno solamente se prima avremo vinto la guerra per il computer universale.
Il giorno della vittoria, quando si inizierà a discutere a livello costituzionale che un mondo in cui regolamentare i computer è il modo sbagliato per risolvere i problemi, non glissiamo sulla divisione tra diritti di proprietà e diritti umani.
Questo è il tipo di divisione che, mentre si incancrenisce, mette in pericolo le persone più vulnerabili della nostra società. Essere d’accordo di dissentire su questo tema non basta. Dobbiamo iniziare a pensare oggi ai principi da applicare quando arriverà quel giorno.
Se non iniziamo subito, sarà troppo tardi.
Lascia un commento