Pas de problème on veille sur vous !

Lorsque j’ai découvert le système PRISM, le nouveau (?) jouet de la NSA, comme tout le monde (et après avoir relu 1984 et le meilleur des mondes) je me suis dis : « Que diable ! Serions-nous surveillés, épiés, espionnés, fliqués, big-brotherisé ? et tout ceci à l’insu de notre plein gré ?! je suis outré,

je suis choqué, je tombe des nues » sur un ton sarcastique autant qu’ironique bien sûr.  Rien d’étonnant ni de nouveau sous le soleil ! Ce qui se cache dans les tiroirs de la NSA, n’est rien d’autre qu’un secret de polichinelle. Pour qui connaît un peu la logique des services de renseignement, il est évident, et même salutaire, qu’ils exploitent le monde du numérique.

Cela étant, comment peuvent-ils traiter autant d’informations ?
Et c’est là que se situe le cœur du problème et où l’opacité règne encore. L’enjeu principal n’est donc pas tant l’acquisition de l’information que son traitement ; voire ici les moyens techniques engagés par la NSA. Le travail de data-mining est énorme.
Des outils plus ou moins performants existent déjà comme RIOT.

Suivant les filtres sélectionnés et leur pertinence, vous risquez de vous retrouver dans leur base de données (comme nous après avoir écrit cet article), même si la simple détection de « mots-clés sensibles » a depuis longtemps fait place à des analyses plus poussées (sémantique entre autre). Autrement dit « tu tweet, tu es fiché ».

Que connaît-on de l’aspect « traitement » de la surveillance généralisée
et mondiale ?
Quel sont les moyens humains engagés ? Combien de petits chinois de serveurs sont affectés à cette tâche ? Combien de techniciens, mathématiciens, linguistes, informaticiens, pour un barbouze agent de terrain ? Ce qui est sûr, c’est que le profil d’une telle équipe pluridisciplinaire est plus proche du Docteur Follamour que de 007.

C’est bien le volume des informations qui pose problème. D’après une étude du congrès américain, elles croissent suivant les sources de 4 péta bits par mois (4.1015). Suivant les technologies utilisées, on passe à côté de pépites et de données cruciales. Lors du 11 septembre, les USA ont découvert qu’ils disposaient des informations pouvant stopper les attaques dans leur base de données : mais un retard dû au manque de linguistes a compromis une détection.

Que sait-on actuellement sur le fonctionnement de tels systèmes de traitement de l’information ?
En premier, des filtres constitués par des mots-clés (noms, dates, villes…) sélectionnent les textes comme les mails, fichiers audios et vidéospertinents. Là, pas trop de problèmes. Chaque document doit être stocké avec, comme critères, plusieurs variables. Suivent d’autres traitements, des algorithmes « les classifieurs » qui utilisent les variables pour un nouveau filtrage. Ces « classifieurs » sont le résultat d’études de plusieurs laboratoires comme celui du MIT. Il ne faut pas oublier la puissance de calcul qui est monstrueuse (à la pointe de la technologie informatique). Mais comme dans toute veille, il reste toujours une validation humaine (analyste).

Quid de la France ? »en France y a-t-il des systèmes équivalents ? »

Oui, HERISSON ou Habile Extraction du Renseignement d’Intérêt Stratégique à partir de Sources Ouvertes Numérisées. La DGA signale que « démonstrateur » utilisera les sources ouvertes numériques à l’instar de PRISME qui cherche les informations directement dans Google, Facebook…
Donc, nous aussi, « petits » français nous avons sûrement les mêmes problèmes de traitement des données.

Pour conclure, pas de soucis… Comme le montre L’actu en patates : les services de renseignement peuvent vous rendre service ?

Luc dit Lopia & l’Homme à la cigarette électronique

  

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *