Los ciberataques han aumentado un 67% en los últimos cinco años
MADRID, 30 (EUROPA PRESS)
El presidente de Microsoft España, Alberto Granados, considera que la inteligencia artificial (IA) debe utilizarse de forma “segura y responsable” y ha abogado por garantizar un “marco de desarrollo ético” que contemple criterios de seguridad, privacidad, equidad, inclusión y transparencia.
Así lo ha indicado en su intervención en un encuentro organizado por Esade titulado ‘La Inteligencia Artificial, catalizador de la transformación de las organizaciones’, un foro en el que también ha instado a democratizar la adopción de las tecnologías relacionadas con la inteligencia artificial.
En este contexto, el directivo ha lamentado la falta de desarrolladores en España, algo que a su juicio supone “un problema” y para lo que desde su compañía se está impulsando el modelo de programación ‘low-code’, que permite acelerar el desarrollo de ‘apps’ sin necesidad de conocimientos específicos.
“Los desarrolladores utilizan cada vez más el concepto de ‘Copilot’. El 46% del nuevo código ya está escrito por IA y algunos de los desarrolladores más famosos ya crean con ‘GitHub Copilot'”, ha señalado Granados.
CRECEN LOS CIBERATAQUES
Por otro lado, el presidente de Microsoft en España ha explicado que los ciberataques han aumentado un 67% en los últimos cinco años y que 1.287 contraseñas son atacadas cada segundo.
“Desde Microsoft se analizan 65 billones de señales de amenaza cada día y se monitorizan más de 250 organizaciones de cibercriminales. Por ello, tenemos el objetivo de extender masivamente ‘Security Copilot’ como modelo de OpenAI para acelerar tareas y aplicaciones de seguridad que permitan identificar actividades maliciosas, tomar decisiones más informadas y mejorar el trabajo de los especialistas de ciberseguridad de cada compañía”, ha señalado.
En ese sentido, ha indicado que los datos de los clientes de Microsoft no se utilizan para entrenar otros modelos de inteligencia artificial.
“Los datos de nuestros clientes son de nuestros clientes y no se utilizan para entrenar otros modelos de IA. Están protegidos de acuerdo con la regulación de privacidad”, ha aseverado.