Safety First (SSI), con su recién adquirida financiación de 1.000 millones de dólares, tiene como misión crear una inteligencia artificial (IA) que sea no solo avanzada, sino también segura y ética. Esta misión suena maravillosa en papel, especialmente para aquellos que ven el futuro de la tecnología a través del prisma de la ética y la seguridad. Sin embargo, el verdadero reto no es solo construir esta IA, sino lograr que otros actores globales acepten las conclusiones de SSI como la verdad absoluta y se alineen con sus principios
El Desafío de Convencer al Mundo: Una Ironía Inevitable
Aquí es donde comienza la parte divertida (irónica, por supuesto). Porque, ¿cómo convence SSI a compañías tecnológicas de culturas totalmente diferentes, e incluso a posibles competidores, de que su enfoque ético debe convertirse en la nueva ley universal? Es decir, no basta con desarrollar una IA segura y ética; el verdadero desafío está en hacer que el resto del mundo, incluyendo países con visiones muy distintas sobre ética y seguridad, acepte estos principios como propios.
Imaginemos por un momento que una empresa tecnológica de un país con una visión geopolítica distinta a la de Occidente se levanta una mañana y dice: "Claro, vamos a seguir las directrices éticas de SSI. Nada como adoptar los estándares de una empresa estadounidense para asegurar que nuestra IA respete los valores que nos han inculcado." Es difícil imaginar que esto suceda sin un pequeño tirón de ironía, dado que muchos actores globales podrían percibir esto como un intento de imponerles una ética ajena a su cultura o intereses económicos.
Y si miramos a los competidores directos de SSI, ¿realmente esperaríamos que se alineen con la visión de una IA "segura" que, además de ética, los desplace tecnológicamente en el mercado global? ¿Van a aceptar que su forma de gestionar los avances de IA no solo es incorrecta, sino peligrosa para la humanidad? En muchos casos, el incentivo para seguir sus propios intereses comerciales probablemente pesará más que la promesa de una IA más benigna para el futuro del planeta.
Entonces, aunque SSI haya recaudado una cifra impresionante, el auténtico Everest será conseguir que estos principios de ética y seguridad sean aceptados por actores que tienen sus propias agendas. En este escenario, las negociaciones sobre IA segura podrían ser tan sencillas y fluidas como una discusión sobre política internacional en la mesa de Navidad.