L’idra della disinformazione
#StoryKillers
Riccardo Coluccini
Alle otto di sera del 5 settembre 2017 è stata assassinata con tre pallottole la giornalista indiana Gauri Lankesh. Si trovava appena fuori dall’uscio di casa, a Bangalore. Dal 2005, aveva creato un suo settimanale Gauri Lankesh Patrike, e si descriveva come giornalista-attivista. Era nota per le sue posizioni contro l’inarrestabile ascesa dell’induismo più radicale, spina dorsale del governo nazionalista indiano: combattere le fake news diffuse dal partito di governo Bharatiya Janata Party (BJP), guidato dal primo ministro Narendra Modi, era per lei parte di una più ampia azione di contrasto contro l’estrema destra indiana.
Quando è stata uccisa, stava lavorando alla pubblicazione di un editoriale dal titolo In the Age of False News, pubblicato poi postumo. Stava indagando sul sito Post card News, una delle «fabbriche di bugie» di cui si alimentano il BJP e gli ambienti di estrema destra.
«Il primo ministro Narendra Modi ha lasciato prosperare un clima di dominio delle gang in India, con i suoi sostenitori hindu che diffamano i “laicisti” – scrive il New York Times nell’editoriale L’omicidio di una giornalista indiana, pubblicato due giorni dopo -. Il veleno che i troll dei social media reazionari direzionano ai giornalisti, o “presstitute” (un gioco di parole tra press, stampa, e prostitute, ndr) come li chiamano loro, è particolarmente malvagio, ma non interamente nuovo. Almeno 27 giornalisti indiani sono stati uccisi dal 1992 «come conseguenza diretta del loro lavoro», secondo il Committee to Protect Journalists (Cpj). Il Cpj è un’organizzazione non profit che si occupa di libertà di stampa e sicurezza dei giornalisti.
L’omicidio è l’arma finale per silenziare un giornalista, ma ci sono altri metodi, più raffinati e meno evidenti con cui aggredire la stampa libera.
La disinformazione è come un’idra, il velenoso serpente mitologico a più teste: ciascuna corrisponde a un mercenario assoldato per iniettare il veleno nel discorso pubblico, in modi più o meno brutali. È un mostro immortale, che esiste da quando c’è il giornalismo. È parte delle macchine della propaganda. Sembra non avere alcuna regia, invece il corpo a cui appartengono le teste diverse è sempre lo stesso. Ogni mercenario, dispone di molti modi per uccidere una storia, anche senza macchiarsi di omicidio.
#StoryKillers è l’inchiesta internazionale sui volti della disinformazione – da quelli più violenti, a quelli più tollerati, da quelli incontrovertibilmente illegali, a quelli che sfruttano a loro vantaggio dei vuoti legislativi – a cui hanno partecipato oltre cento giornalisti di trenta media internazionali.
I mercenari della disinformazione sono spesso invisibili. La loro industria globale – che ha preso sempre più piede anche in Italia – è però fiorente e redditizia. Non è facile capire quanti siano, tuttavia secondo un report pubblicato dal Oxford Internet Institute, nel 2020 in almeno 81 Paesi sia governi che partiti politici sono ricorsi a campagne di manipolazione sui social media. Durante sei mesi di ricerche, i giornalisti di #StoryKillers hanno scoperto e investigato sulle organizzazioni che offrono questo tipo di servizi a pagamento, manipolando i risultati di Google, cercando di influenzare l’esito di elezioni e inondando i social network di informazioni false.
«Graduale indottrinamento»
Il processo per l’omicidio di Gauri Lankesh è cominciato a luglio 2022 e ancora non si è concluso. Sono imputate 18 persone (una delle quali ancora latitante), tutte collegate a una setta nazionalista induista chiamata Sanatan Sanstha e una sua affiliata, la Hindu Janajagriti Samiti (HJS). L’organizzazione è legalmente registrata in India, ha un trust finanziario dal 1999 e un sito dove presenta i suoi corsi di meditazione e spiritualità, ma dal 2007 in avanti alcuni suoi affiliati sono stati arrestati e processati per aver fatto esplodere bombe e per aver ucciso attivisti e politici di sinistra.
Secondo i documenti giudiziari visionati da Forbidden Stories, Amol Kale, membro della setta, avrebbe pianificato l’omicidio della giornalista per più di un anno. Era da tempo che il commando di killer – frequentatori sia della setta, sia di gruppi di motociclisti – stava monitorando gli spostamenti della giornalista. A premere il grilletto sarebbe stato Parashuram Waghmore, un induista radicale.
Almeno cinque membri del gruppo omicida avevano visto un video su Youtube del 2012 in cui la giornalista metteva in discussione le origini dell’induismo. Secondo un investigatore che ha parlato con Forbidden Stories sotto garanzia di anonimato, il presunto sicario Waghmore conosceva a memoria alcuni passaggi di quel video. Gli inquirenti ipotizzano che il filmato abbia avuto un ruolo fondamentale nel percorso di «graduale indottrinamento» con il quale il gruppo di assassini si è persuaso che uccidere la giornalista fosse giusto.
Un’analisi online, condotta da Forbidden Stories con il supporto dei ricercatori del Princeton’s Digital Witness Lab, dimostra che quello stesso video, prima che l’assassinio fosse pianificato, è stato diffuso ampiamente nei gruppi di estrema destra, contribuendo in maniera sostanziale a trasformare la giornalista in una nemica dell’induismo. Solo che le parole di Lankesh sono state modificate: il discorso «è stato accorciato per includere solo la parte in cui dice che la religione indù non ha un padre o una madre. L’intenzione era quella di sottolineare la pluralità della religione. Ci sono migliaia di caste e diversi credi», ha spiegato a Forbidden Stories Kl Ashok, coordinatore dell’evento in cui Lankesh aveva tenuto il discorso.
Caricata più volte su YouTube, la versione manipolata delle parole della giornalista è stata diffusa su Facebook attraverso otto diversi link, ottenendo in alcuni casi complessivamente circa 100 milioni di interazioni, tra like, commenti e condivisioni. Gli amici di Lankesh ricordano costanti attacchi e molestie online ai suoi danni da parte di gruppi dell’estrema destra, durante gli ultimi mesi di vita. Erano la dimostrazione degli effetti della macchina del fango messa in moto per distruggere la sua credibilità.
La centralizzazione dei social media in poche grandi aziende ha creato il perfetto strumento per una delle teste dell’idra della disinformazione. Dopo essere stato modificato in modo da generare le reazioni più forti nel pubblico, il video da YouTube finisce con l’essere introdotto in pagine e gruppi Facebook, aumentandone esponenzialmente l’esposizione.
Negli anni successivi all’omicidio di Lankesh, Post card News, l’oggetto delle ricerche della giornalista, ha continuato a postare incessantemente false informazioni, sia per screditare altre testate e l’opposizione, sia per distogliere l’attenzione dai nazionalisti induisti, accusati per l’omicidio, e incolpare invece gruppi della sfera politica di sinistra.
L’arma della delegittimazione
Il ricorso alla violenza e gli attacchi fisici contro i giornalisti portano spesso a una reazione da parte dei colleghi e a un’attenzione maggiore alle notizie su cui le vittime stavano lavorando. Questi episodi sono però solo la più tragica ed estrema manifestazione di un processo di avvelenamento del dibattito pubblico che parte da molto più lontano. Un processo che è spesso invisibile perché fatto di tecniche e azioni più silenziose ma allo stesso tempo efficaci.
Ci sono infatti reti di bot (profili automatizzati e in grado di operare massivamente) costruite da aziende specializzate fatte apposta per manipolare l’opinione pubblica. In parallelo, i tentativi di censura “legale” attraverso l’abuso delle leggi sul diritto d’autore o sulla privacy spingono poi i giornalisti all’auto-censura per timore di costosi casi giudiziari. E se il fiorire di fake news già mette in crisi il mondo dell’informazione, allora le aziende che rimuovono contenuti online per proteggere la reputazione di un cliente non fanno altro che peggiorare questa situazione, andando a colpire e nascondere articoli e inchieste di notevole rilevanza per l’opinione pubblica.
«Queste campagne hanno l’obiettivo di distruggere la credibilità dell’interlocutore, e se non puoi distruggerla allora minacci la sua vita», ha dichiarato ai giornalisti di #StoryKillers la dottoressa Emma Bryant, fellow al Bard College e professoressa associata al Center for Financial Reporting and Accountability dell’Università di Cambridge, esperta di propaganda internazionale e information warfare.
Il mondo dell’informazione è sotto attacco anche a causa dell’effetto collaterale della presenza di monopoli sui bacini di informazione: chi riesce a manipolarli potrà ottenere risultati con estrema facilità. In breve, visto che i colossi che gestiscono la distribuzione globale delle informazioni sono fondamentalmente solo tre – Google, Meta e Twitter – capendo come manipolare gli algoritmi che “scelgono” per noi quali notizie finiscano in evidenza si può efficacemente determinare cosa appaia e cosa no, e di conseguenza, cosa è vero e cosa è falso, almeno nell’opinione pubblica.
Mercenari nell’ombra: il Team Jorge
Alcuni di questi mercenari sostengono di essere in grado di cambiare l’esito di tornate elettorali o referendarie, grazie alla loro capacità di condizionare l’opinione pubblica. I colleghi delle testate TheMarker, Radio France e Haaretz li hanno incontrati fingendosi un gruppo di interesse intenzionato a rimandare, a tempo indefinito, delle elezioni in un Paese africano. Gli incontri sono stati registrati con una telecamera nascosta e mostrano, per la prima volta, come si negozia a porte chiuse l’interferenza in un voto.
Il nome Team Jorge deriva dall’alias utilizzato da una delle persone che ha mostrato le capacità e i servizi a disposizione ai giornalisti sotto copertura. L’uomo che si fa chiamare Jorge è in realtà Tal Hanan, amministratore delegato dell’azienda Demoman, società israeliana specializzata in consulenza per agenzie governative di tutto il mondo su temi come il terrorismo e la sicurezza nazionale. Hanan non ha voluto rispondere a una serie di domande dettagliate inviate dal consorzio di giornalisti ma ha dichiarato di non aver commesso alcuna azione illecita.
Email ottenute dal Guardian e condivise con il consorzio di #StoryKillers mostrano che i servizi di Tal Hanan e del suo team erano stati persino offerti nel 2015 a Cambridge Analytica, l’azienda coinvolta nello scandalo dei dati sottratti a Facebook e usati per influenzare la campagna elettorale del 2016 di Donald Trump per la presidenza degli Stati Uniti e nel referendum sulla Brexit. Quell’accordo non sembra essere stato siglato, ma il Team Jorge ha continuato a cercare clienti in tutto il mondo.
I servizi offerti dal Team Jorge sono vasti ed è molto difficile verificarne l’efficacia: raccolta di informazioni su concorrenti e oppositori politici, pianificazione di strategie politiche, addestramento per personale in grado di produrre contenuti online, ma anche interferenze nelle elezioni e attività informatiche offensive come ad esempio ottenere dati bancari, smascherare l’identità di una persona dietro a un nickname, e accedere a caselle di posta elettronica. Hanan ha specificato di avere una presenza con varie aziende in diverse zone del mondo – sul sito di Demoman sono indicate sedi in Israele, USA, Svizzera, Spagna, Croazia, Messico, Colombia, e Ucraina – e i pagamenti per le campagne possono essere fatte tramite aziende di comodo in base a dove si trova il cliente.
Ma il vero veleno per questa testa dell’idra è la diffusione di notizie false. In uno dei meeting, Tal Hanan spiega le tre fasi per una campagna di successo: «Per prima cosa raccogliamo informazioni, un po’ dalle fonti aperte e un po’ usando le nostre capacità tecnologiche». A quel punto bisogna costruire la narrazione: «In base al nostro obiettivo, cosa vogliamo influenzare? Qual è la narrazione? Che cosa produrrà un impatto?», prosegue Hanan. Poi non rimane che disseminare queste informazioni in modo che tutti le leggano e le conoscano. Il vero potere di queste operazioni, spiega Hanan, è che sono fatte dietro le quinte: «L’altro lato non sa nemmeno che noi ci siamo».
Tra gli strumenti preferiti da Team Jorge c’è la piattaforma AIMS, che sembra essere stata sviluppata in parte internamente circa sei anni fa, il cui acronimo sta per Advanced Impact Media Solutions. Questo software permette di creare e gestire centinaia di finti profili social in tutto e per tutto simili a un qualsiasi account autentico. Per mostrare le capacità di AIMS, su richiesta degli intermediari-giornalisti, Team Jorge ha offerto un esempio attaccando con una campagna sui social un personaggio diventato virale nel 2022 su TikTok e Twitter: un uccello emù chiamato Emmanuel. La campagna di dimostrazione aveva anche un hashtag, ricondiviso dagli avatar di AIMS: #RIP_Emmanuel.
Questa dimostrazione ha permesso di verificare le capacità di Team Jorge ma ha offerto anche indirettamente a Forbidden Stories la possibilità di tracciare a ritroso la rete di avatar virtuali utilizzati, scoprirne di nuovi che hanno collegamenti in comune e mappare così anche altre campagne di disinformazione attive in cui è stata utilizzata la piattaforma. L’analisi di Forbidden Stories ha individuato 16 campagne attribuite alla piattaforma AIMS, per un totale di circa 1.750 avatar coinvolti e quasi 110 mila tweet.
Come Team Jorge ha condizionato le elezioni in Kenya
Il 15 agosto 2022 sono stati ufficializzati i risultati delle elezioni presidenziali in Kenya. William Ruto è stato eletto presidente, vincendo contro l’avversario Raila Odinga (quest’ultimo sostenuto anche dal presidente uscente Uhuru Kenyatta). Nelle elezioni del 2007 sono morte oltre mille persone e in quelle del 2017 più di cento. Comprensibilmente, erano molti gli occhi puntati sulle elezioni e tra questi c’erano anche quelli di Team Jorge.
In quei giorni Tal Hanan ha mostrato infatti ai giornalisti sotto copertura di avere accesso ad alcuni account Gmail e profili Telegram appartenenti a membri della campagna elettorale di Ruto.
Hanan poteva leggere le email e scrivere direttamente ai contatti Telegram dei bersagli hackerati. «Questo è in diretta», dichiara Hanan in uno dei video registrati di nascosto dai giornalisti mentre scorre le chat Telegram del Digital Strategist della campagna di Ruto, Dennis Itumbi, «parlano del conteggio dei voti, che è ancora in corso. Dicono che per le 15:00 si dovrebbero avere i risultati finali – ne dubito, vedremo».
Il reale impatto di Team sull’esito delle elezioni è difficile da stabilire. Di certo però sui social sono apparsi video di origine sconosciuta che hanno cominciato a far girare informazioni false in merito a presunte pressioni occidentali sul voto. Inoltre, alcuni giorni dopo l’annuncio della vittoria, una delle vittime hackerata da Team Jorge è stata accusata per una presunta frode elettorale a favore di Ruto. John Githongo, giornalista attivo nella lotta alla corruzione che con il suo giornale The Elephant ha collaborato anche con IrpiMedia, è entrato in contatto con un whistleblower che ha dichiarato l’esistenza di brogli con i sistemi informatici della commissione indipendente per le elezioni.
Il whistleblower ha dichiarato di aver aiutato nell’attacco informatico e di aver falsificato i documenti insieme ad altre 56 persone. A guidare la frode sarebbero stati due membri della campagna del neo-eletto presidente Ruto, tra cui la persona il cui account Telegram è stato mostrato da Jorge. Il whistleblower si è però rivelato successivamente non affidabile.
I risultati dell’elezione avevano già prodotto violente proteste da parte della popolazione. Le notizie di brogli non hanno fatto altro che esacerbare una situazione già tesa. La Corte Suprema del Kenya è intervenuta sul caso ribadendo che i risultati sono legittimi e che le prove forensi offerte dal whistleblower non confermano alcun tipo di broglio o attacco informatico, ma sarebbero state create appositamente. La decisione della Corte non è servita però a placare la popolazione.
A inizio 2023 un nuovo sito web legato a un altro whistleblower che afferma di aver lavorato nella commissione elettorale ha pubblicato altre prove per confermare la tesi dei brogli elettorali. Anche in questo caso i documenti erano falsi, come hanno dimostrato una serie di analisi sui file.
Non è chiaro se esista un collegamento diretto tra questo whistleblower e Team Jorge ma Hanan ha dichiarato di poter creare siti che fanno il verso a Wikileaks per pubblicare documenti e informazioni con lo scopo di screditare gli avversari. Secondo Hanan tutto può essere usato come arma di disinformazione e pubblicato sui loro siti: «Una volta può trattarsi di foto, un’altra di scontrini, e un’altra ancora email».
La piattaforma AIMS è venduta come parte di un pacchetto di servizi, di solito dedicati a partiti politici. «La nostra competenza principale sono le elezioni, abbiamo completato 33 diverse campagne a livello presidenziale», ha spiegato Hanan in una presentazione. La maggior parte di queste campagne, sempre secondo le sue parole, hanno coinvolto Paesi del continente africano ma anche in Asia, America Latina e Europa dell’Est.
Secondo alcune biografie disponibili online, Hanan è un esperto di antiterrorismo e intelligence, ex membro delle forze speciali dell’esercito israeliano. Sin dal 1990 è coinvolto nell’industria della sicurezza e dell’intelligence. Sul sito web della sua azienda, Demoman, Hanan offre una piattaforma per il monitoraggio dei social media, ma sul sito non c’è traccia delle campagne di disinformazione messe in piedi con AIMS. Gli altri membri di Team Jorge sono tutti parte del settore della sicurezza ed ex ufficiali dell’esercito/intelligence israeliano.
Le vite virtuali degli avatar di AIMS
AIMS (Advanced Impact Media Solutions) crea una sorta di album di figurine di account fasulli che possono essere usati a proprio piacimento. Per ciascuno di essi si possono scegliere l’etnia, la lingua, e un set di fotografie per il profilo. Queste foto sono spesso raccolte da database online o rubate da social network come il russo VK, come ha potuto confermare Forbidden Stories nel caso di un avatar che ha copiato le foto del profilo di una donna di origini ungheresi.
Ogni finto profilo ha un account Gmail con un numero di cellulare verificato e sono presenti sul web come una qualsiasi persona reale: profili su Facebook, Twitter, Instagram, Amazon, persino account per gestire criptovalute. Per crearli Jorge utilizza piattaforme online che offrono numeri di telefono virtuali e ciascun avatar, una volta programmato, interagisce sulle piattaforme nascosto dietro quelli che si chiamano residential proxies in modo da mascherare l’origine fasulla dei bot. Con i residential proxies il traffico internet passa attraverso degli intermediari, che sono spesso dispositivi di veri utenti ignari di ciò che sta avvenendo. In questo modo è possibile bypassare i controlli dei social media fingendo che i bot siano connessi da linee internet utilizzate da persone reali.
Le piattaforme come Facebook analizzano infatti diversi dettagli delle connessioni di un utente: se la connessione proviene sempre dallo stesso tipo di dispositivo, usando lo stesso browser e se l’indirizzo IP proviene da un operatore che offre servizi internet legittimi.
Tutti gli account che presentano segnali di attività sospetta e coordinata, come ad esempio quelli che si connettono dallo stesso indirizzo IP, vengono segnalati e bloccati dalle piattaforme.
Gli avatar della piattaforma AIMS sono poi usati dal Team Jorge per lasciare commenti sui social, condividere articoli e video creati in base alla narrazione che si vuole diffondere, o persino per acquistare prodotti su Amazon all’interno di strategie dirette a screditare particolari obiettivi. «Imitiamo il comportamento umano», dichiara Jorge in uno degli incontri.
Il consorzio di giornalisti ha condiviso alcuni dei bot con Meta, l’azienda proprietaria di Facebook, che ha provveduto a eliminarli dal social media. Secondo un portavoce di Meta, questi account sarebbero collegati a un altro network di bot individuati nel 2019 e gestiti da un’azienda israeliana che ora non è più attiva.
Per creare i contenuti da diffondere Jorge ha a disposizione un altro strumento che crea post su blog messi in piedi appositamente, per poi passare i link agli avatar virtuali. L’obiettivo è avere quanti più articoli possibili da spammare: non interessa se Meta o Twitter rimuovono i link, ci sarà sempre un nuovo contenuto pronto da condividere. In questo modo i bot possono imprimere la storia con efficacia nella mente dell’opinione pubblica o semplicemente creare caos sui social media.
I servizi di disinformazione offerti da Hanan e il suo Team ricadono in una zona grigia ma in alcuni casi si spingono chiaramente oltre il limite della legalità, come nel caso di intrusioni informatiche e attacchi hacker. In alcuni degli incontri ha mostrato infatti di avere accesso diretto a caselle di posta, tra cui quelle di Gmail, e poter scrivere e cancellare messaggi dall’account Telegram di assistenti nella campagna elettorale del neo-presidente del Kenya, William Ruto.
Forbidden Stories è riuscita a confermare l’accesso abusivo agli account personali di posta elettronica e di alcune chat ma non è stata in grado di verificare cosa abbia fatto Jorge per ottenere l’accesso. Telegram ha confermato che gli account coinvolti non avevano attivato la password per l’autenticazione a due fattori, un metodo alternativo alla tradizionale verifica tramite SMS che si usa quando si aggiunge il proprio account a un nuovo dispositivo.
Secondo Jorge, come ha raccontato in uno degli incontri, non c’è nessun tipo di intrusione informatica nei dispositivi, non si tratta di spyware, né vengono inviati SMS e email di phishing per carpire le credenziali di accesso: «Per spiegarlo in parole semplici, copiamo l’identità del dispositivo e stabiliamo un collegamento con tutti i server che inviano i dati al dispositivo», dicono.
Uno degli aspetti più peculiari di questi mercenari della disinformazione sta nella loro capacità di creare disturbo, sia che si tratti di bot sui social sia ottenendo informazioni con attacchi informatici. In molti casi infatti non è necessario che tutti credano alla storia messa in piedi dai bot di Team Jorge, la sola presenza di questi contenuti può instillare il dubbio e produrre reazioni in alcune parti della popolazione.
«È possibile che l’impatto più grande delle campagne di disinformazione, come queste, sia nel pretendere di essere estremamente efficaci e spingerci a mettere in dubbio l’autenticità di tutto ciò che vediamo online», ha dichiarato a Forbidden Stories Nir Grinberg, professore associato al Dipartimento di Software and Information Systems Engineering presso l’Università di Ben-Gurion.
Sul sito di Demoman c’è una frase attribuita a Mark Twain che secondo l’azienda spiega l’importanza dell’intelligence online e dell’insegnamento di queste tecniche ai clienti: «È più saggio scoprirlo che supporlo». Un messaggio che sembra piuttosto un monito per tutti i giornalisti che cercano di contrastare la disinformazione.
Le teste dell’idra, infatti, preferiscono essere semplici supposizioni nella testa dei cittadini, rimanere nell’ombra, aggirarsi nei vicoli più nascosti delle piattaforme online per poi colpire sfruttando proprio quei monopoli digitali che tengono insieme le nostre vite. Ma rivelare questi meccanismi e puntare l’attenzione sui punti di congiunzione tra le diverse strategie dei mercenari della disinformazione permette di comprendere in anticipo quali sono i pericoli che le nostre democrazie devono affrontare e, forse, evitare che una nuova storia venga lasciata incompiuta.
Condizionare le opinioni è un servizio che può acquistare solo chi se lo può permettere. È un bene di lusso che serve sia a chi vuole condizionare consultazioni elettorali, sia a chi vuole ripulirsi la reputazione, sia a chi vuole trasformare chi la pensa diversamente da lui in un nemico da abbattere. Il luogo dove è più facile incidere sulle opinioni è la rete, dove il giornalismo è già avvelenato dallo strapotere delle piattaforme online: Google, Facebook, Twitter e gli altri giganti del web, sono interessati più a evitare conseguenze legali che a migliorare il modo di fornire e rettificare le informazioni che il pubblico consuma. È così che, accanto alle tecniche di manipolazione degli algoritmi, nel tempo sono andati sviluppandosi metodi più subdoli, paralegali e solo apparentemente legittimi, che sfruttano le vulnerabilità del diritto alla privacy o dei diritti d’autore.
Togliere o insabbiare un’informazione può diventare quindi un servizio, piuttosto costoso, accessibile solo a chi si può permettere di ripulire la propria reputazione web. Questa testa dell’idra è la protagonista della seconda puntata di #StoryKillers, che, come IrpiMedia ha scoperto, in Italia è la più insidiosa.
CREDITI
Autori
Riccardo Coluccini
Ha collaborato
Raffaele Angius
Lorenzo Bagnoli
Editing
Giulio Rubino
Illustrazioni
In partnership con
The Guardian
The Observer
Le Monde
The Washington Post
Der Spiegel
ZDF
Paper Trail Media
Die Zeit
Radio France
Proceso
Occrp
Knack
Le Soir
Haaretz
The Marker
El Pais
SverigesTelevision
Radio Télévision Suisse
Folha
Confluence Media
IrpiMedia
IStories
Armando Info
Code for Africa
Bird
Tempo Media Group
El Espectador
Der Standard
Tamedia
Krik