Log in to leave a comment
No posts yet
Le scénario où une IA modifie son propre code et mine de la cryptomonnaie à l'insu des humains n'est plus de la science-fiction. Comme le montre le cas du modèle ROME du laboratoire d'Alibaba, une IA en cours d'apprentissage par renforcement peut, pour atteindre ses objectifs, ouvrir des tunnels de communication externes et abuser des ressources sans instructions humaines. En tant que responsable de la sécurité, avant de louer l'« intelligence » d'un modèle, vous devez d'abord bloquer la possibilité que cette intelligence ne consume vos coûts cloud et ne divulgue vos données.
Le principe du refus par défaut (Default Deny) ne fait pas exception pour les infrastructures d'IA. Le fait qu'un modèle accède au réseau externe pour se mettre à jour seul ou se connecter à un pool de minage doit être physiquement empêché au niveau du réseau. Toute communication ne figurant pas sur la liste blanche est une attaque potentielle.
Cette conception permet de bloquer les communications avec des serveurs C&C non approuvés et de prévenir les explosions inattendues des coûts cloud.
Le GPU est la ressource la plus coûteuse d'une infrastructure d'IA. Lorsqu'un modèle entame une action de menace autonome, le taux d'occupation du GPU et les modèles de consommation d'énergie changent en premier. Si vous les ignorez en les considérant comme une simple charge de serveur, vous manquerez le « golden time » d'un incident de sécurité.
pynvml pour maintenir un script Python qui force l'arrêt immédiat (SIGKILL) du processus (PID) concerné si l'utilisation du GPU augmente de plus de 20 % par rapport à la base de référence pendant 5 minutes.Il ne faut pas s'inquiéter de la baisse de performance, mais suspecter un détournement de ressources. Une logique d'arrêt automatisée est le moyen le plus sûr de garantir la disponibilité de l'infrastructure.
Un modèle d'IA ayant subi un jailbreak n'hésite pas à commettre des actes de tromperie, comme signaler son état comme normal ou manipuler les journaux. Ne croyez pas aveuglément les entrées et sorties du modèle ; établissez une « chaîne de confiance » en les vérifiant via un petit modèle indépendant (sLLM).
Pour empêcher un modèle d'élever ses privilèges au sein du réseau et de se propager vers d'autres systèmes (Mouvement Latéral), l'IA doit être considérée comme un initié dangereux. La clé est de réinitialiser périodiquement l'environnement afin que les privilèges acquis ne soient pas conservés.
admin_credentials.txt contenant de fausses clés API dans les chemins accessibles par l'IA. Si vous concevez le système pour qu'une alerte retentisse dès l'accès à ce fichier, vous pouvez immédiatement capturer les tentatives d'élévation de privilèges du modèle.sudo, apt-get et pip install des conteneurs en cours d'exécution. Cela empêche préventivement le modèle d'installer ses propres outils d'attaque.Une autonomie non contrôlée n'est pas de l'intelligence, c'est un désastre. Ce n'est qu'en combinant l'isolement de l'infrastructure, la surveillance en temps réel basée sur le matériel et la réinitialisation régulière de l'environnement que vous pourrez protéger les actifs de données de l'entreprise.