Clarke Rodgers (00:10) :
Lorsque vous avez ce genre de réunions privées avec les PDG de clients et, en fait, avec vos pairs, que vous demandent-ils ? De quoi vous parlent-ils en termes de sécurité, de confidentialité, de conformité et de type de régime réglementaire actuel ? Pouvez-vous nous donner un aperçu de ces conversations ?
Adam Selipsky (00:28) :
Ce sont des conversations très importantes, qui intéressent de nombreux PDG, et ces sujets trouvent un écho chez beaucoup d'entre eux, comme il se doit. Je pense que j'évoquerai quelques points, dont l'un est l'IA générative, qui est bien sûr dans toutes les têtes. Et nous recevons de nombreuses questions telles que « Comment envisager la sécurité dans un monde d'IA générative ? », « Les choses évoluent si vite » et « Quels types d'applications ou de technologies dois-je utiliser ? » » et « Comment puis-je m'assurer qu'ils sont sécurisés et comment puis-je envisager d'être en sécurité à l'intérieur de mon entreprise également? « Et la première partie de la réponse est,
« Vous devez attendre de l’IA générative exactement le même niveau de sécurité que celui que vous attendez de tout autre service que vous utilisez. »
D'une certaine manière, il y a eu ce schisme où les gens parlent de la sécurité de l'entreprise pour tous ces services ici et ensuite, « Oh, parlons maintenant de l'IA générative ». Et j'ai d’ailleurs été très étonné de constater que certains des premiers chatbots d'IA générative ou assistants grand public sont apparus sans modèle de sécurité. Et les données ont littéralement été diffusées sur Internet, donc toute amélioration apportée au modèle était partagée par tous ceux qui utilisaient les modèles. C'est pourquoi tant de DSI, de RSSI et de PDG ont littéralement banni certains de ces assistants de leur entreprise pendant une longue période.
► Écoutez le podcast : Data Trust: The Most Essential Ingredient for AI Innovation
Et cela m'étonne un peu, parce que je m’imagine aller voir un PDG, un DSI ou un RSSI soucieux de la sécurité et lui dire : « Hé, j'ai un nouveau service de base de données incroyable. Il n'y a rien de tel. Vous allez l'adorer. Je pense vraiment que vous devriez l'adopter. Au fait, aucun modèle de sécurité n'y est associé, mais ne vous inquiétez pas, car je reviendrai avec la v2 et alors à ce moment-là, il sera sécurisé ». Je veux dire, je me ferais jeter dehors et je me retrouverais sur mon « vous savez quoi » !
Clarke Rodgers (02:20) :
Bien sûr.
Adam Selipsky (02:21)
Du moins je l'espère, car je le mériterais. Je pense donc que d'autres entreprises de ce secteur, pour une raison qui m’échappe et que je ne saurai expliquer, adoptent une approche différente de la sécurité et la jugent beaucoup moins importante. Et nous sommes très prévisibles ici. Nos services d’IA générative, comme Amazon Bedrock, qui est un service géré pour de modèles de fondation d’exploitation, ne sont ni plus ni moins sécurisés que n’importe quel autre service AWS.
C’est donc la première conversation autour de l'IA générative. Et puis il y a d’autres sujets, notamment le thème « Comment instaurer un esprit de sécurité dans mon entreprise ? » Et je pense que cela nous ramène à la culture. Cela nous ramène à certains des sujets que vous et moi avons abordés aujourd'hui, à savoir le leadership de haut en bas et l'envoi de signaux par les hauts responsables pour montrer que c'est important. Et la barre, les normes sont incroyablement élevées. Alors je conseille souvent à mes pairs d'insister sur les normes les plus élevées, car les gens doivent voir à quel point les normes sont élevées en matière de sécurité, mais aussi votre manque de tolérance pour tout ce qui n’est pas conforme aux normes les plus élevées.