Des crises technologiques comme la panne d’électricité espagnole pourraient-elles continuer à se produire ?

Les vulnérabilités des systèmes informatiques et la capacité de les corriger plus rapidement grâce à des logiciels open source sont disponibles, permettant aux spécialistes indépendants et aux communautés mondiales d'examiner, de tester et d'améliorer continuellement leurs fonctionnalités.
Nous avons récemment connu des crises partout dans le monde liées aux infrastructures informatiques, tant pour les entreprises que pour les gouvernements. Le cas le plus récent et le plus médiatisé est celui de la panne d'électricité en Espagne, qui a entraîné une interruption généralisée de l'alimentation électrique dans la péninsule ibérique, le Portugal continental, Andorre et certaines régions du sud de la France. Plus de 50 millions de personnes ont été touchées, avec de graves perturbations des télécommunications et des transports. Bien que cet événement n'ait pas entraîné de conséquences catastrophiques, les conséquences de la panne ont coûté la vie à huit personnes.
L'infrastructure informatique désigne l'ensemble des ressources physiques et virtuelles permettant à une organisation d'exploiter et de gérer ses systèmes d'information ; elle comprend le matériel, les logiciels et les réseaux de services nécessaires au traitement, au stockage et à la transmission des données. Une gestion adéquate est essentielle à l'efficacité et à la réussite de toute entreprise à l'ère du numérique.
Face à cette situation, El Economista s'est entretenu avec Luciano Alves, PDG de Zabbix LATAM, expert en infrastructures informatiques travaillant pour le Centre national de contrôle de l'énergie au Mexique. Son avis sur des événements de cette nature nous aide à comprendre comment nous préparer, tant en tant qu'utilisateurs majeurs qu'en tant qu'individus.
—Qu'est-ce qui se cache derrière les pannes de système comme celles de Microsoft ou les pannes massives comme celles en Espagne et au Portugal au niveau technologique ?
Des événements tels que des pannes de système mondiales ou des pannes d'électricité de grande ampleur résultent souvent d'une défaillance de l'un des trois piliers fondamentaux de la technologie : les outils, les processus et les personnes. Dans les environnements hautement numérisés, une technologie robuste ne suffit pas. Les processus doivent être clairement définis, alignés sur les objectifs de l'entreprise, et les personnes doivent être formées à leur utilisation et à la gestion des crises. Lorsqu'un de ces piliers fait défaut, que ce soit en raison d'un outil obsolète, d'un processus inefficace ou d'une erreur humaine, le système peut s'effondrer. Tout n'est pas nécessairement une défaillance imputable uniquement à la technologie. Le défi consiste à orchestrer efficacement ces trois éléments pour garantir la résilience opérationnelle.
—Est-il possible de protéger l'infrastructure informatique pour prévenir les vulnérabilités qui affectent des millions de personnes ? Comment ?
Oui, il est tout à fait possible de protéger l'infrastructure informatique et de prévenir la plupart des problèmes opérationnels, à condition d'instaurer une solide culture de surveillance et d'analyse des données en temps réel. Tout système technologique génère en permanence des signaux : journaux, indicateurs de performance, alertes de défaillance. La question est : sommes-nous prêts à interpréter ces signaux et à agir en amont ? Avec les bons outils, tels que les plateformes d'observabilité et la surveillance intelligente, il est possible non seulement de réagir rapidement aux défaillances, mais aussi de les anticiper. L'essentiel est de constituer une base de données solide sur le comportement normal de l'infrastructure et de détecter les écarts révélateurs d'anomalies potentielles. C'est toute la différence entre être réactif et proactif.
—La complexité de l’infrastructure informatique fait-elle partie du problème de vulnérabilité ?
La complexité croissante des infrastructures informatiques n'est pas un problème en soi, mais une caractéristique naturelle de l'environnement numérique actuel. La multiplication des systèmes, des intégrations et des plateformes répond à la demande d'agilité, de personnalisation et d'innovation. Le défi se pose lorsque cette complexité n'est pas correctement gérée. Sans stratégie claire, elle peut engendrer des risques. Cependant, grâce à une planification stratégique et à des équipes compétentes, cette complexité peut se transformer en avantage concurrentiel. Le recours à des conseils spécialisés, à des solutions modulaires et à une formation continue sont des pratiques clés pour évoluer en toute sécurité dans cet environnement.
—Quelle est la différence entre les systèmes open source et les systèmes sous licence dans l’infrastructure technologique ?
La principale différence entre les logiciels open source et les logiciels sous licence réside dans le modèle économique, et non pas nécessairement dans la qualité ou la sécurité de la technologie. Les logiciels open source, lorsqu'ils sont développés et maintenus par des entreprises réputées – comme c'est le cas de Zabbix – peuvent être aussi sûrs, voire plus, que les solutions propriétaires. Leur principal avantage est la transparence : le code est accessible à tous pour audit, ce qui multiplie les possibilités d'identification des failles ou des vulnérabilités. De plus, la communauté open source est généralement plus large et plus active, ce qui favorise des améliorations constantes et des réponses rapides aux incidents. Les logiciels propriétaires, en revanche, reposent exclusivement sur l'équipe interne de l'éditeur. Dans les deux cas, c'est le sérieux de l'entreprise qui développe, maintient et supporte la solution qui détermine véritablement la sécurité.
—La surveillance de l’infrastructure informatique est-elle suffisamment répandue ?
La surveillance des infrastructures informatiques est un pilier essentiel de la prévention des crises. Cependant, on trouve encore fréquemment des implémentations superficielles, axées uniquement sur des indicateurs de base tels que la disponibilité du réseau ou l'état des serveurs. La véritable valeur de la surveillance réside dans sa capacité à corréler des données provenant de sources multiples pour générer des informations sur le comportement du système.
Il est crucial de croiser les informations sur l'infrastructure avec les indicateurs d'expérience utilisateur, par exemple. C'est la seule façon de comprendre l'impact réel d'une panne et de prendre les mesures appropriées. Bien que son importance soit évidente, l'utilisation avancée de la surveillance reste encore trop peu répandue, notamment dans les organisations dépourvues d'une culture informatique solide. Il est fréquent de voir des entreprises sous-exploiter leurs outils, que ce soit en raison d'un nombre excessif de plateformes, d'une mauvaise utilisation, d'un manque de formation ou de services contractés sur le « marché gris », proposés par des entreprises indépendantes des fabricants, ce qui compromet la sécurité et la fiabilité opérationnelles.
—Étant donné que le CENACE au Mexique utilise Zabbix pour surveiller une partie de son infrastructure informatique, une panne massive comme celle en Espagne est-elle possible au Mexique ?
Aucun outil, aussi puissant soit-il, ne peut à lui seul prévenir les incidents. L'utilisation de Zabbix par CENACE illustre parfaitement l'intégration de la surveillance aux processus critiques. Cependant, son efficacité dépend de la manière dont elle est configurée, surveillée et utilisée dans le contexte des processus et par les bonnes personnes. L'essentiel est de traiter les incidents à la racine, et non pas seulement à partir de leurs symptômes. Si un événement critique n'est pas correctement analysé et corrigé, il peut se reproduire ou se combiner à d'autres événements mineurs et dégénérer en crise majeure. Il est donc essentiel d'agir de manière préventive, en atténuant autant que possible les risques grâce à une bonne gouvernance informatique.
—Avec les progrès de l’IA, les infrastructures informatiques deviennent-elles plus vulnérables ou cette technologie peut-elle aider à détecter les risques plus tôt ?
L'intelligence artificielle est un allié puissant dans la gestion des infrastructures informatiques. Elle renforce les capacités humaines en analysant rapidement et précisément de grands volumes de données, identifiant ainsi les tendances et les anomalies avant qu'elles n'aient d'impact. Grâce à l'IA, des tâches qui nécessitaient auparavant des heures d'analyse manuelle peuvent être réalisées en quelques secondes. Cependant, il est essentiel que son utilisation s'inscrive dans des processus bien définis et qu'elle soit supervisée par des humains. L'IA formule des recommandations basées sur des probabilités, mais la décision finale appartient à l'opérateur. Correctement mise en œuvre, l'IA ne rend pas les systèmes plus vulnérables ; au contraire, elle renforce leur résilience, améliore la prise de décision et accélère la réponse aux crises.
Eleconomista