Clarke Rodgers (00:10):
En este tipo de reuniones privadas con clientes con el cargo de CEO y, en definitiva, con compañeros, ¿qué preguntas le hacen? ¿Qué le cuentan sobre seguridad, privacidad, cumplimiento de normativa y sobre el tipo de régimen regulador actual? ¿Puede hablarnos un poco de esas conversaciones?
Adam Selipsky (00:28):
Son conversaciones muy importantes que preocupan a numerosos CEO y, como es normal, estos temas surgen en muchas de ellas. Supongo que señalaría algunas cosas, una de las cuales es que, bueno, la IA generativa está, sin duda, en la mente de todos. Y nos hacen muchas preguntas, como "¿Qué opino de la seguridad en la era de la IA generativa?", "Las cosas avanzan tan rápido", "¿Qué tipos de aplicaciones o tecnologías debo usar?", "¿Cómo sé que son seguras?" y "¿Qué opino de la seguridad también dentro de mi empresa?". Y la primera parte de la respuesta es:
“De la IA generativa debe esperar exactamente el mismo nivel de seguridad que espera de cualquier otro servicio que consuma”.
Se ha producido una especie de cisma en el que la gente habla de la seguridad empresarial de cualquier servicio y luego dice: “Bueno, ahora hablemos de la IA generativa”. Y, de hecho, me sorprendió bastante que algunos de los primeros chatbots o asistentes para consumidores con IA generativa se publicaran sin un modelo de seguridad. Los datos se difundieron por Internet, y las mejoras del modelo podían ser compartidas por cualquiera que utilizara los modelos. Por eso, muchos directores de información (CIO), directores de seguridad de la información (CISO) y CEO prohibieron estos asistentes en su empresa durante un buen tiempo.
► Escuche el pódcast: Data Trust: The Most Essential Ingredient for AI Innovation
Pero me sorprende un poco porque imagínese que voy a ver a un CEO, un CIO o un CISO preocupado por la seguridad y le digo: “Mire mi nuevo servicio de base de datos. Es increíble. No hay nada igual. Le va a encantar. Debería utilizarlo. Por cierto, no tiene ningún modelo de seguridad, pero no se preocupe porque voy a traer la v2 y ahí será seguro”. ¡Yo creo que sabe a dónde me mandarían!
Clarke Rodgers (02:20):
Sí.
Adam Selipsky (02:21)
O al menos deberían, lo tendría merecido. Creo que otras empresas de este ámbito, por alguna razón, no sé explicarles por qué, están adoptando un enfoque diferente de la seguridad y, de alguna manera, la consideran menos importante. Y aquí somos muy predecibles. Nuestros servicios de IA generativa, como Amazon Bedrock, que es un servicio administrado para operar modelos básicos, no son ni más ni menos seguros que el resto de servicios de AWS.
Esa suele ser la primera conversación sobre IA generativa. También sacamos otros temas, como el de “¿Cómo puedo inculcar una mentalidad de seguridad en mi empresa?” Y creo que esta pregunta nos lleva de nuevo al tema de la cultura. Nos hace recordar algunas de las cosas de las que hemos hablado hoy, como el liderazgo descendente y el mensaje que los líderes sénior tienen que transmitir sobre la importancia de este tema. Y el listón… las normas son muy estrictas. A menudo, aconsejo a mis compañeros que exijan normas más estrictas. La gente tiene que ver que las normas de seguridad son muy estrictas y que no se tolerará su incumplimiento.