
Image by Freepik
Le DSI vise à élargir son équipe en créant des clones numériques de son personnel
Le DSI de l’UC San Diego souhaite utiliser des agents IA et des jumeaux numériques pour automatiser le travail informatique, améliorer la cybersécurité et alléger les charges du personnel.
Pressé ? Voici les faits essentiels :
- Le DSI de l’UCSD propose d’utiliser des agents IA et des jumeaux numériques pour aider le personnel informatique.
- L’UCSD est confrontée à des menaces cybernétiques complexes en raison de ses recherches océanographiques.
- Les clones numériques pourraient améliorer la productivité et le bien-être du personnel.
Au cours de la conférence Cisco Live de cette semaine, le Dr. Vince Kellen a proposé d’utiliser des agents IA et des jumeaux numériques du personnel IT expérimenté pour gérer les tâches répétitives et les urgences nocturnes, comme rapporté pour la première fois par The Register.
S’adressant à un auditoire comble, Kellen a déclaré : « Toutes les routes mènent à des niveaux élevés d’automatisation chaque fois que nous le pouvons », rapporte The Register.
L’université fonctionne comme une petite ville car elle accueille plus de 100 000 personnes par jour, tout en devant faire face à une baisse des inscriptions étudiantes et à des ressources financières limitées
Kellen prédit que les systèmes d’IA acquerront des connaissances des travailleurs de la technologie pour gérer les demandes croissantes à l’avenir. « Nous avons toutes ces connaissances en êtres humains sur la politique de réseau que nous devons extraire de leurs esprits d’une manière similaire à l’irrigation goutte à goutte », a-t-il déclaré, comme le rapporte The Register.
Kellen estime que le transfert lent de ces connaissances à l’IA permettrait aux équipes informatiques de réduire leur charge de travail et d’améliorer les performances du réseau.
L’Institut d’océanographie de l’UCSD fait également face à des menaces pour la sécurité nationale. « Lorsque vous mettez un sonar dans l’eau, vous découvrez plus que des poissons, et d’autres pays veulent en savoir plus à ce sujet, » a-t-il averti, selon ce que rapporte The Register.
Les cyberattaques soutenues par des pays étrangers deviennent de plus en plus sophistiquées, nécessitant au personnel d’automatiser les défenses de base afin qu’ils puissent se concentrer sur des menaces plus dangereuses.
Kellen croit que l’IA « a le potentiel de permettre une détection proactive des problèmes » et voit les clones numériques comme un moyen de préserver l’expertise du personnel tout en allégeant leur charge. « Ensuite, cette personne n’a pas à être torturée lorsqu’il y a un autre incident. Ils ne sont pas appelés la prochaine fois », a-t-il ajouté, selon ce que rapporte The Register.
Son idée soulève une question provocante : laisseriez-vous votre employeur cloner numériquement votre expertise si cela signifiait moins d’appels stressants ? Avec l’expansion de l’automatisation, la frontière entre le travail humain et le travail des machines pourrait se brouiller, mais pour les équipes informatiques, cela pourrait signifier un soulagement tant attendu.
Toutefois, l’augmentation de l’automatisation soulève également des préoccupations en matière de cybersécurité. Les systèmes exploités par des travailleurs IT automatisés et des agents IA présentent des cibles attrayantes pour les pirates, car une attaque sur ces systèmes pourrait entraîner des perturbations étendues.
En effet, un jumeau numérique compromis pourrait être utilisé pour contourner les protocoles de sécurité et propager des logiciels malveillants à un rythme plus rapide que les opérateurs humains.
Un rapport du Forum Économique Mondial soutient que les attaquants peuvent contaminer les données d’entraînement de l’IA ou découvrir des vulnérabilités dans les modèles d’IA, ce qui entraîne des défaillances du système ou la génération de résultats incorrects.
Ces attaques de « empoisonnement de données » et d’exploitation de modèles sont souvent faciles à réaliser mais difficiles à contrer, car les mesures de sécurité actuelles sont insuffisantes, comme le note ITPro.
Malgré ces risques, 96% des professionnels de l’informatique reconnaissent les agents d’IA comme une menace pour la sécurité, pourtant, la plupart des organisations se précipitent pour les mettre en œuvre sans contrôles ou politiques appropriés, comme le rapporte ZDNet.