iymagazine.es

Desarrollo IA

Microsoft impulsa el desarrollo seguro de IA en las empresas
Ampliar

Microsoft impulsa el desarrollo seguro de IA en las empresas

martes 18 de febrero de 2025, 14:00h

Microsoft está ayudando a las empresas a desarrollar y lanzar inteligencia artificial (IA) confiable, abordando los desafíos de seguridad y cumplimiento normativo. A través de herramientas como Azure AI Foundry y PyRIT, las organizaciones pueden gestionar riesgos asociados a la IA generativa, optimizando su implementación en entornos complejos. Este enfoque integral busca empoderar a los desarrolladores y garantizar que las aplicaciones de IA sean seguras, eficientes y alineadas con las regulaciones vigentes.

Desafíos en el Desarrollo de IA Generativa

La IA generativa está transformando diversas industrias, pero muchas empresas se encuentran ante serios desafíos al intentar desarrollar y desplegar herramientas que sean seguras. En un entorno tecnológico que evoluciona constantemente, los líderes empresariales expresan su preocupación por los riesgos asociados, como la posibilidad de generar información errónea o dañina, la filtración de datos sensibles, y el cumplimiento de normativas de privacidad. Sin embargo, a menudo carecen de los recursos y conocimientos necesarios para gestionar estos problemas de manera efectiva.

«Las organizaciones valoran la seguridad y la protección, además de la calidad y el rendimiento de sus aplicaciones de IA», explica Sarah Bird, Chief Product Officer de IA Responsable en Microsoft. «No obstante, muchas no saben qué pasos seguir para hacer que su IA sea confiable o carecen de las herramientas adecuadas para lograrlo».

Para enfrentar esta problemática, Microsoft ha desarrollado herramientas y servicios que facilitan a los desarrolladores la creación y lanzamiento de sistemas de IA confiables. Estas soluciones están diseñadas con un enfoque en la seguridad, la privacidad y la protección, permitiendo a numerosas organizaciones implementar tecnología en entornos complejos y regulados. Desde asistentes que resumen historiales médicos hasta chatbots que ofrecen asesoramiento fiscal, estas innovaciones están cambiando el panorama empresarial.

Optimización del Trabajo del Desarrollador

Este enfoque está optimizando el trabajo de los desarrolladores, ayudándoles a ser más eficientes”, destaca Mehrnoosh Sameki, manager principal de producto de IA Responsable en Microsoft.

«Aunque desarrollar la primera versión de una aplicación de IA generativa es relativamente sencillo, muchas empresas se frenan antes del lanzamiento por temor a los riesgos o por incertidumbre sobre el cumplimiento normativo», revela Sameki. «Estas herramientas agilizan la implementación y proporcionan tranquilidad al facilitar las pruebas y la protección de las aplicaciones».

Dichas soluciones forman parte del compromiso integral de Microsoft hacia una IA responsable. La compañía reúne expertos en seguridad y privacidad para identificar riesgos potenciales y documentar buenas prácticas. Este proceso se adapta continuamente al ritmo acelerado del avance tecnológico.

A través del trabajo conjunto entre diversos especialistas, Microsoft ha creado un marco sólido destinado a reducir riesgos y ofrecer soluciones prácticas. Esto incluye un red team que identifica posibles vulnerabilidades, así como ingenieros dedicados a mejorar las medidas de seguridad.

Tecnologías Innovadoras para Empresas

Entre las herramientas disponibles se encuentran PyRIT, un marco abierto para detectar riesgos; Azure AI Foundry, que mide automáticamente los riesgos; y Azure AI Content Safety, diseñado para bloquear contenido dañino.

«Nuestro enfoque centrado en la seguridad incorpora múltiples capas de protección contra distintos riesgos. Estamos proporcionando a las organizaciones todas las herramientas necesarias para implementar este sistema por sí mismas», asegura Bird.

Cada vez más empresas están utilizando estas tecnologías para garantizar la fiabilidad y seguridad en sus aplicaciones. Por ejemplo, una gestoría que implementó un chatbot fiscal encontró crucial corregir errores generados por la IA para asegurar información precisa. Asimismo, reforzaron su sistema con filtros para prevenir ataques cibernéticos.

Aumentando la Gobernanza en IA

Mientras tanto, Microsoft continúa ayudando a fortalecer la gobernanza en IA: un sistema que permite rastrear información clave sobre el desarrollo e implementación de modelos. Actualmente disponible en versión preview, AI Reports, ofrece una plataforma colaborativa para cumplir con regulaciones crecientes.

«No contar con un sistema adecuado dificulta garantizar el correcto funcionamiento del desarrollo tecnológico», señala Bird. «Aseguramos que nuestros sistemas cumplan normativas y compartimos nuestras mejores prácticas con clientes para facilitar su proceso de cumplimiento».

This initiative refleja el compromiso continuo de Microsoft por empoderar a las personas mediante una adopción segura y eficiente de la inteligencia artificial.

"La confianza en nuestros propios sistemas es fundamental", concluye Sarah Bird.

Blog sobre IA Responsable en Microsoft.

Valora esta noticia
0
(0 votos)
¿Te ha parecido interesante esta noticia?    Si (0)    No(0)

+
0 comentarios