Apple firma acuerdo voluntario con la Casa Blanca para regular la IA

La Casa Blanca ha anunciado que Apple se ha sumado a un acuerdo voluntario para gestionar los riesgos asociados con el desarrollo de la Inteligencia Artificial (IA); este acuerdo, firmado en julio de 2023, busca asegurar que la IA se utilice de manera responsable y no con fines perjudiciales para la sociedad.

Apple, junto con otras grandes tecnológicas como Google, Meta, Amazon, Microsoft, IBM y Nvidia, se ha comprometido a trabajar en conjunto con el gobierno estadounidense para establecer estándares comunes de seguridad en la Inteligencia Artificial.

Este acuerdo voluntario refleja una creciente preocupación por parte del gobierno estadounidense y las empresas tecnológicas sobre el rápido avance de la IA y su potencial impacto en la sociedad.

El acuerdo incluye la obligación de realizar pruebas internas y externas de los sistemas de IA antes de lanzar actualizaciones al público. Esta medida tiene como objetivo garantizar que los sistemas de Inteligencia Artificial sean seguros y no presenten riesgos imprevistos para los usuarios.

El anuncio de este acuerdo llega en un momento en que gobiernos, organizaciones y asociaciones civiles de todo el mundo están acelerando la creación de marcos normativos para evitar una adopción desordenada de la IA.

La implementación de estas regulaciones pretende evitar errores pasados, como los ocurridos durante el auge de internet, y garantizar un desarrollo responsable de la tecnología.

Entre otras iniciativas, se destaca el “Frontier Model Forum”, un organismo industrial formado por Google, OpenAI, Microsoft y Anthropic, que también se compromete a garantizar el desarrollo seguro y responsable de modelos avanzados de IA.

Ética y Negocios en la IA

La adopción de la Inteligencia Artificial ha generado un debate ético en la comunidad tecnológica. Según Statista, se estima que el valor de mercado de los software de IA alcanzará los 126 mil millones de dólares para 2025.

Te podría interesar:  WOODSIDE INVERTIRÁ 7.2 MMDD PARA EXTRAER  PETRÓLEO EN MÉXICO

Este potencial económico ha llevado a un aumento en la inversión en proyectos de IA, pero también ha generado preocupaciones sobre el impacto en el empleo y la ética en su uso.

En Hollywood, actores, guionistas y artistas han expresado su preocupación por la posible sustitución laboral en áreas creativas debido a la IA.

Una huelga histórica en la industria exigió contratos que garanticen el uso ético de la IA en producciones y la protección de los empleos; recientemente, los trabajadores de la industria de los videojuegos se unieron a esta lucha con demandas similares.

La confianza en la implementación de la Inteligencia Artificial ha sido cautelosa.
Aunque las empresas tecnológicas anuncian continuamente la integración de la IA en sus productos y servicios, se ha observado una tendencia a evitar cambios impulsivos en sus estrategias.

Por ejemplo, Apple decidió posponer el lanzamiento de su IA, Apple Intelligence, en el nuevo iPhone 16, planeando su implementación con la actualización del sistema operativo IOS 18.1 en octubre.

Renuncia

En junio, Microsoft renunció a su puesto en la junta directiva de OpenAI, y Apple optó por no ocupar su lugar.

Este cambio de estrategia se relaciona con las investigaciones que tanto la Unión Europea como Estados Unidos están llevando a cabo sobre el avance y la implementación de la Inteligencia Artificial.

Google, por su parte, ha adoptado un enfoque cauteloso con su chatbot, Bard, explicando que teme que un error pueda impactar negativamente en su reputación. Esta actitud prudente parece estar siendo imitada por otras empresas tecnológicas.

Te podría interesar:  Robert F. Kennedy Jr: Su memoria se ve afectada por un gusano muerto en el cerebro

Este acuerdo voluntario entre Apple y el gobierno estadounidense es un paso importante hacia la regulación de la IA, garantizando que su desarrollo y uso sean responsables y seguros para la sociedad.

Más información relevante aquí.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *