RANCAGUATV™ Tu Columna de Opinión a: prensa@rancaguatv.cl

Arrow up
Arrow down

logos gobiertno en rancaguatv 2

RANCAGUATV™ Medio de comunicación social digital, se ha adjudicado el Concurso de Fondos de Medios de Comunicación Social Regional, versión medio tradicional digital 2023, que realiza el Ministerio Secretaría General de Gobierno, región del Libertador Bernardo O'Higgins y el honorable Consejo Regional de O'Higgins. Producción"Sexta Contigencia"


PUBLICIDAD

Ya son más de 10 años de información y entretención para usted ►

INTELIGENCIA ARTIFICIAL

ORACLE INCORPORA IA GENERATIVA EN TODO EL STACK TECNOLÓGICO PARA PERMITIR LA ADOPCIÓN DE IA EMPRESARIAL A GRAN ESCALA

ORACLE INCORPORA IA GENERATIVA EN TODO EL STACK TECNOLÓGICO PARA PERMITIR LA ADOPCIÓN DE IA EMPRESARIAL A GRAN ESCALA

 

El servicio OCI Generative AI ahora está disponible de forma general en la nube y en entornos locales con una selección de modelos de Cohere y Meta, para transformar la toma de decisiones basada en datos y facilitar la integración de la IA en cargas de trabajo modernas.


 

Oracle anunció hoy la disponibilidad general del servicio Oracle Cloud Infrastructure (OCI) Generative AI, junto con innovaciones adicionales que permiten a las empresas aprovechar los últimos avances en IA generativa. El servicio OCI Generative AI es un servicio totalmente gestionado que integra a la perfección los grandes modelos de lenguaje (LLM) de Cohere y Llama 2 de Meta para abordar una amplia gama de casos de uso empresariales. El servicio OCI Generative AI incluye ahora funcionalidades multilingües que admiten más de 100 idiomas, una experiencia mejorada de gestión de clústeres de GPU y opciones flexibles de ajuste. Los clientes pueden utilizar el servicio OCI Generative AI en Oracle Cloud y en entornos locales gracias a OCI Dedicated Region.

"La IA de Oracle tiene por objetivo resolver casos de uso empresariales reales para permitir una adopción generalizada en las organizaciones. Para ello, estamos incorporando IA a todas las capas del stack tecnológico mediante la integración de IA generativa en nuestras aplicaciones y bases de datos convergentes, así como con nuevos LLM y servicios gestionados, todo ello con el respaldo de una infraestructura de IA rápida y rentable", afirma Greg Pavlik, vicepresidente sénior de IA y Gestión de Datos de Oracle Cloud Infrastructure. "En lugar de proporcionar un kit de herramientas que debe ensamblarse, ofrecemos un potente conjunto de servicios y funciones de IA generativa incorporados que funcionan conjuntamente para ayudar a los clientes a resolver problemas empresariales de manera más inteligente y rápida".

Personalización más sencilla de modelos de IA generativa

Con el fin de ayudar a los clientes a abordar problemas empresariales en torno a la generación de texto, la creación de resúmenes y las tareas de similitud semántica, los últimos modelos de Cohere y Llama 2 de Meta estarán disponibles en un servicio gestionado que se puede consumir a través de llamadas de API. Asimismo, los clientes podrán integrar IA generativa de forma fácil y segura en su stack tecnológico, con una seguridad y una gobernanza de datos estrictas.

Los clientes podrán delimitar aún más estos modelos utilizando sus propios datos con técnicas de generación aumentada de recuperación (RAG) que permiten a los modelos entender sus operaciones internas específicas.

Ahora disponible en versión beta, el servicio OCI Generative AI Agents con agente RAG combina la potencia de los LLM y la búsqueda empresarial basada en OCI Open Search para proporcionar resultados contextualizados y mejorados con datos empresariales. Este agente permite a los usuarios interactuar con diversas fuentes de datos empresariales mediante lenguaje natural sin necesidad de contar con conocimientos especializados. La información recuperada es actual, incluso con almacenes de datos dinámicos, y los resultados se proporcionan con referencias a los datos de origen.

La versión beta inicial es compatible con OCI OpenSearch. Las próximas versiones admitirán una gama más amplia de herramientas de búsqueda y agregación de datos y proporcionarán acceso a Oracle Database 23c con AI Vector Search y MySQL HeatWave con Vector Store. Oracle también ofrecerá acciones de agente predefinidas en su conjunto de aplicaciones SaaS, desde Oracle Fusion Cloud Applications Suite y Oracle NetSuite hasta aplicaciones sectoriales como Oracle Cerner.

Incorporación de IA generativa en todas las capas del stack de Oracle

La infraestructura de IA líder de Oracle y su completa cartera de aplicaciones en la nube crean una potente combinación que garantiza la confianza de los clientes. Al integrar IA generativa en toda su cartera de aplicaciones en la nube (ERP, HCM, SCM y CX) Oracle permite a los clientes aprovechar las últimas innovaciones en sus procesos de negocio existentes. Además, Oracle está incorporando funcionalidades de IA generativa en su cartera de bases de datos para permitir a los clientes crear sus propias aplicaciones basadas en IA. Con Autonomous Database Select AI, los clientes pueden acelerar el desarrollo de aplicaciones o crear nuevas soluciones de negocio sacando el máximo partido de sus datos empresariales privados con la productividad y la creatividad de la IA generativa.

ROBOTS E INSECTOS: HUAWEI ESTUDIA CÓMO LAS HORMIGAS PODRÍAN AYUDAR A PERFECCIONAR EL APRENDIZAJE DE LA IA

ROBOTS E INSECTOS HUAWEI ESTUDIA CÓMO LAS HORMIGAS PODRÍAN AYUDAR A PERFECCIONAR EL APRENDIZAJE DE LA IA 

  • En una serie de videos informativos -llamada Huawei Decoded- el investigador Zhu Lee habló sobre el estudio del comportamiento de diferentes insectos y cómo los antecedentes recogidos pueden hacer más eficientes las soluciones tecnológicas con Inteligencia Artificial. 


 

El experto en robótica de insectos e ingeniero principal del Instituto de Investigación Estratégica de Huawei, Zhu Lee, estudia el comportamiento natural de las hormigas, como fuente de inspiración para optimizar el funcionamiento de las soluciones digitales con Inteligencia Artificial creadas en la empresa, para hacerlas más eficientes. 

 “Estamos tratando de mejorar la Inteligencia Artificial y una forma de hacerlo es mirar la inteligencia instintiva para obtener ejemplos de insectos, como las hormigas, que pueden desenvolverse mucho más inteligentemente que los robots”, puntualizó el investigador. 

Su relato es parte de la última edición de Huawei Decoded, una instancia en que los trabajadores de la compañía tecnológica responden preguntas enviadas por internet a la empresa, a fin de acercar los avances tecnológicos y el proceso detrás de ellos a la ciudadanía. Según explicó Lee, Huawei está estudiando el movimiento y comportamiento de estos seres invertebrados para adaptar aprendizajes automáticos y perfeccionar algoritmos de entrenamiento de IA, que permitan a futuro optimizar el rendimiento de algunos productos de la marca, como drones, aspiradoras y autos autónomos, entre otros. 

¿Por qué la tecnología es más lenta? En la actualidad, los equipos digitales inteligentes, como las aspiradoras robots, utilizan una Unidad Central de Procesamiento (CPU) para interpretar y ejecutar instrucciones almacenadas en la memoria. Sin embargo, este enfoque presenta limitaciones debido a la separación entre el procesador y la memoria, comparado con la eficiencia del cerebro de los seres vivos que integran todas las funciones. 

El investigador manifestó que “al aplicar algoritmos derivados de observar la inteligencia natural en dispositivos que se alimentan de IA, se puede lograr una mejora significativa en su funcionamiento”. Para ejemplificar, Lee utilizó el caso de los robots aspiradoras, indicando que “estos aparatos generan mapas detallados de la superficie; deben saber exactamente dónde están las habitaciones, las paredes y la estación de carga, para luego planear la ruta de limpieza. Las hormigas, por su parte, no requieren crear mapas de superficies, ellas utilizan memoria de vector y visual, lo que les permite ser más rápidas que la aspiradora.”

Por otro lado, el investigador Zhu Lee estimó que cuando los vehículos autónomos alcancen la inteligencia de las hormigas, la perspectiva será prometedora, ya que con su inteligencia “la probabilidad de colisiones disminuirá significativamente, se logrará una mayor eficiencia energética y, con eso, se podrán recorrer distancias más extensas sin necesidad de recargas frecuentes”.

Este enfoque de optimización, inspirado en la memoria visual y la eficiencia de funcionamiento observadas en los insectos, podría revolucionar la industria automotriz y otros sectores, ofreciendo beneficios tangibles en términos de seguridad y eficiencia en el uso de recursos. Ingresa aquí para ver este interesante caso de Huawei Decoded.

NUEVAS INICIATIVAS BASADAS EN LA IA Y ANALÍTICA IMPACTAN EL BIEN DE LA SALUD, VIDA MARINA Y LAS COMUNIDADES

NUEVAS INICIATIVAS BASADAS EN LA IA Y ANALÍTICA IMPACTAN EL BIEN DE LA SALUD VIDA MARINA Y LAS COMUNIDADES

 

  • Un nuevo laboratorio ético de inteligencia artificial (IA) para la salud y la ampliación del equipo de ética de datos permitirá respetar los derechos y valores de los pacientes.

  • Gracias a la tecnología analítica se ha creado una infraestructura digital de ciudad inteligente para mejorar el transporte.

  • La inteligencia artificial está siendo utilizada para proteger a las tortugas marinas en peligro de extinción. 


Santiago, 8 de julio de 2023.-  Sin duda, la tecnología y los datos presentan beneficios exponenciales no solo para el mundo empresarial sino también para mejorar la calidad de vida de las personas, preservar especies y cuidar el medio ambiente.



Es precisamente en esta línea que SAS una vez más reafirma su compromiso con el uso de los datos de forma significativa (Data for good) mostrando que la analítica al servicio de la humanidad puede ayudar a resolver problemas humanitarios en todo el mundo relacionados con la pobreza, la salud, los derechos humanos, la educación y el medio ambiente. 

“Las acciones de la analítica implican un gran paso para las industrias y la sociedad en general, con el desarrollo e inversiones que realizamos en IA es posible presentar nuevas e innovadoras soluciones que mejoran la vida”, destaca Héctor Cobo, VP Regional en SAS México, Caribe, Centroamérica y Perú. 

Actualmente, la compañía colabora con organizaciones de todo el mundo que aplican los datos para lograr un impacto social positivo.

Innovador laboratorio de IA fomenta la ética en la atención de salud

Como parte de su compromiso con la innovación responsable, SAS ha colaborado recientemente con dos organizaciones holandesas: Erasmus University Medical Center (Erasmus MC), uno de los principales hospitales académicos de Europa; y Delft University of Technology (TU Delft), sede del TU Delft Digital Ethics Centre, para poner en marcha el primer Laboratorio de Inteligencia Artificial Responsable y Ética en la Asistencia Sanitaria (REAHL).

El objetivo de este laboratorio es abordar los problemas y retos éticos relacionados con el desarrollo y la aplicación de las tecnologías de IA en la atención a la salud, por lo que, en colaboración con un equipo multidisciplinario de expertos en IA, medicina y ética buscan garantizar que los sistemas de inteligencia artificial sean imparciales, transparentes, responsables y respeten los derechos y valores de los pacientes, además de crear un marco para la IA ética en la atención a la salud que sirva de modelo para centros médicos en todo el mundo.

Práctica de ética de datos para explorar la promesa de la IA

La explosión de la IA generativa en forma de ChatGPT, Google Bard y otros ha reavivado el debate en torno a la IA en la sociedad. Para explorar las aplicaciones positivas de la IA, SAS ha ampliado recientemente la Práctica de Ética de Datos mediante la integración del equipo Data for Good de la empresa.

El equipo de SAS Data for Good buscará oportunidades de asociarse con organizaciones para aplicar la IA a causas que mejoren la sociedad. Por ejemplo, el equipo ha colaborado anteriormente con organizaciones sin fines de lucro para luchar contra la destrucción de la selva tropical en Brasil y explorar la discriminación en materia de vivienda en la ciudad de Nueva York.

IA y analítica avanzada: impulsando ciudades inteligentes y sostenibles

La tecnología analítica e IA permiten a las organizaciones ser más sostenibles, reducir las emisiones y desarrollar operaciones más inteligentes y eficientes.



"Un futuro sostenible requiere soluciones basadas en la ciencia y los datos para hacer frente al cambio climático y adaptarse a sus efectos. Ciudades y organizaciones innovadoras y resilientes están aplicando nuestra analítica para apoyar un mañana más verde, ya sea reduciendo la congestión del tráfico u optimizando el uso de la energía”, destaca Jim Goodnight, CEO de SAS.

Tal es el caso de Estambul, capital de Turquía, que, debido al vertiginoso aumento de su población (16 millones de habitantes), comenzó a saturar la red de transportes de la ciudad. Por lo que, el Ayuntamiento Metropolitano de Estambul (IMM) recurrió a la compañía analítica para crear una infraestructura digital de ciudad inteligente, con la cual los ingenieros y planificadores de la ciudad puedan comprender, prever y gestionar mejor los problemas de tráfico de la ciudad. 

El nuevo sistema analiza datos históricos de tráfico e incorpora fuentes de datos en directo procedentes de una red cada vez más fortalecida, a través de datos generados en cámaras de tráfico, sensores y aplicaciones móviles para optimizar rutas, mejorar servicios y ofrecer una mejor calidad de vida.

Protegiendo a las tortugas marinas en peligro de extinción en Galápagos con IA impulsada por la comunidad global

Como organización dedicada a la innovación responsable y al uso de la tecnología para impulsar un cambio positivo, SAS aplicará la Inteligencia Artificial (IA) y el machine learning para ayudar a proteger a las tortugas marinas en peligro de extinción. La compañía está trabajando con el Centro de Estudios de Galápagos (CGS) de la UNC para avanzar en la investigación de varias iniciativas en las islas y analizar así datos y recopilar información que les ayude a comprender entornos de todo el mundo que se enfrentan a retos similares

Conociendo los patrones del tiburón martillo para su conservación. Los tiburones martillo suelen realizar desplazamientos nocturnos mar adentro y es necesario comprender mejor qué impulsa estos movimientos. El proyecto del tiburón martillo se centra en la presencia o ausencia de estos tiburones en alta mar y en la costa, y en determinar si sus movimientos son sincrónicos y/o rítmicos. Esta información puede ayudar a delimitar las zonas de conservación, así como las prácticas pesqueras y turísticas sostenibles.



Preservando el fitoplancton.  Como base energética y de recursos de todas las redes alimentarias del planeta, comprender tanto la dispersión espacial y temporal, como las interacciones comunitarias de las poblaciones de fitoplancton es imperativo para la conservación. El objetivo del proyecto es comprender los factores físicos, químicos y biológicos que influyen en estos pequeños pero poderosos organismos.



Los cambios de temperatura de los océanos, las condiciones meteorológicas y la actividad humana influyen en el mundo marino que los alberga. Ser capaces de predecir los cambios en la base de la cadena alimentaria puede aportar información sobre el impacto del cambio climático en toda la vida marina y, a su vez, en las poblaciones humanas que dependen de ella.

“Estas iniciativas demuestran que nuestra innovación e IA responsable y cómo aportamos en una mejora continua a través de colaboraciones que impacten el bien común apoyados por la tecnología analítica”, destacó Héctor Cobo, VP Regional en SAS México, Caribe, Centroamérica y Perú. 

SAS ACELERA SUS ESFUERZOS DE INNOVACIÓN RESPONSABLE CON NUEVAS COLABORACIONES Y SE CENTRA EN LA IA

SAS ACELERA SUS ESFUERZOS DE INNOVACIÓN RESPONSABLE CON NUEVAS COLABORACIONES Y SE CENTRA EN LA IA

Las inversiones más destacadas son un nuevo laboratorio ético de IA para la salud y la ampliación del equipo de ética de datos.


 

Santiago, julio de 2023.- El mundo ha sido testigo de avances sin precedentes en Inteligencia Artificial (IA) desde que  la compañía analítica puso en marcha sus esfuerzos de innovación responsable un año atrás.

En medio de esta rápida disrupción, SAS ha incrementado sus esfuerzos para ofrecer una inteligencia artificial (IA) confiable a los clientes, incluyendo un laboratorio ético para el cuidado de la salud, primero en su tipo, en Holanda. 

Asimismo, la empresa también ha ampliado su práctica de ética de los datos integrando su exitoso programa Data for Good, que permite a la empresa considerar no sólo los riesgos de la IA, sino también su potencial para mejorar el mundo.

Innovador laboratorio de IA: una alianza por la ética en la atención de la salud

Como parte de su compromiso con la innovación responsable, la compañía se asocia con organizaciones de todo el mundo para explorar formas de implementar la IA ética en las industrias. Un ejemplo reciente es su colaboración con dos organizaciones holandesas: Erasmus University Medical Center (Erasmus MC), uno de los principales hospitales académicos de Europa; y Delft University of Technology (TU Delft), sede del TU Delft Digital Ethics Centre. Las tres organizaciones han puesto en marcha conjuntamente el primer Laboratorio de Inteligencia Artificial Responsable y Ética en la Asistencia Sanitaria (REAHL).

El objetivo del REAHL es abordar los problemas y retos éticos relacionados con el desarrollo y la aplicación de las tecnologías de IA en la atención a la salud. Con los rápidos avances de esta tecnología, es necesario garantizar su diseño y uso de forma segura, transparente y ética. Esta iniciativa reúne a equipos multidisciplinarios de expertos en IA, medicina y ética con responsables políticos para colaborar en el desarrollo y la aplicación de innovaciones que den prioridad a la seguridad, la privacidad y la autonomía de los pacientes.

Esto incluye garantizar que los sistemas de inteligencia artificial sean imparciales, transparentes y responsables y se utilicen de forma que respeten los derechos y valores de los pacientes. El laboratorio pretende crear un marco para la IA ética en la atención a la salud que sirva de modelo para centros médicos y regiones de todo el mundo.

El REAHL acaba de ser nombrado laboratorio oficial por el Centro Nacional de Innovación para la Inteligencia Artificial (ICAI) de los Países Bajos. Un laboratorio ICAI es una colaboración de investigación entre socios industriales, gubernamentales o sin fines de lucro e institutos del conocimiento. Los laboratorios ICAI deben cumplir requisitos de datos, experiencia y capacidad y se espera que los resultados se pongan en práctica en el mundo real.

"Juntos no solo estamos creando tecnologías de IA, sino también dando forma al futuro de la atención a la salud con un firme compromiso de defender los principios éticos y priorizar el bienestar de los pacientes en cada innovación. Con nuestro trabajo pionero, allanamos el camino para una nueva era de atención al paciente, donde el desarrollo de la tecnología se basa en la transparencia, la seguridad y la equidad como pilares fundamentales", explica el Profesor Adjunto Michel van Genderen, MD PhD, Intensivista Adjunto e Iniciador y Cofundador de Datahub en Erasmus MC en Rotterdam.

La Coalition for Health AI (CHAI), una comunidad de sistemas de salud que reúne a académicos, organizaciones y profesionales expertos en IA y ciencia de datos de la que SAS es miembro fundador, ha publicado recientemente junto a la Academia Nacional de Medicina con expertos en IA de centros médicos académicos y de los sectores de la atención de la salud, la tecnología y otros sectores industriales un plan para una IA confiable para la atención de la salud. Además, SAS y otro miembro de CHAI, Duke Health, un centro médico académico de renombre mundial, anunciaron recientemente que explorarán soluciones innovadoras y colaborativas de atención a la salud con datos y analítica.

SAS amplía su práctica de ética de datos para explorar la promesa de la IA

La explosión de la IA generativa en forma de ChatGPT, Google Bard y otros ha llevado a nuevos niveles el intenso debate en torno a la IA en la sociedad. Para explorar las aplicaciones positivas de la IA, SAS ha ampliado recientemente la Práctica de Ética de Datos mediante la integración del equipo Data for Good de la empresa. A la fecha, ha atendido más de 200 solicitudes de consultoría sobre temas de innovación responsable procedentes de toda la compañía.

 

"Con el rápido avance de la IA, debemos seguir siendo prudentes para mantener a los humanos en el centro de todo lo que hacemos. Pero no se trata solo de proteger a los vulnerables, sino de buscar oportunidades para utilizar la IA para mejorar la vida de las personas", señala Townsend.

 

El equipo de SAS Data for Good buscará oportunidades de asociarse con organizaciones para aplicar la IA a causas que mejoren la sociedad. Por ejemplo, el equipo ha colaborado anteriormente con organizaciones sin fines de lucro para luchar contra la destrucción de la selva tropical en Brasil y explorar la discriminación en materia de vivienda en la ciudad de Nueva York. 

CARACTERÍSTICAS DE LA IA QUE ESTÁN REVOLUCIONANDO LA INDUSTRIA FX

Imagen


En la actualidad la inteligencia artificial (IA) tiene el potencial de revolucionar los procesos de muchas industrias al proporcionar información y herramientas valiosas para mejorar las decisiones comerciales. En el caso del mercado de divisas (FX), esta tecnología tiene la capacidad de proporcionar decisiones más rápidas y precisas, y con ello conducir a una mejor ejecución con mejores rendimientos de las inversiones.

Nader Nurmohamed, director de operaciones de Hantec Markets, explica que la IA a través de su capacidad de analizar grandes cantidades de datos ha logrado ayudar a los inversionistas a administrar su exposición al riesgo al proporcionar recomendaciones para administrar posiciones basadas en el análisis de datos de mercado. 

“Esto puede ayudar a los inversionistas a minimizar las pérdidas potenciales y proteger sus inversiones gracias a estrategias de gestión de riesgos y servicio al cliente al brindar atención las 24 horas, los 7 días de la semana, a través de chatbots impulsados ​​por inteligencia artificial, por lo que mejora exponencialmente la satisfacción y retención del cliente, ya que pueden recibir asistencia inmediata para sus consultas”, agregó Nurmohamed.

Hantec Markets comparte los factores más importantes en los que la inteligencia artificial se está utilizando en la industria de Forex y gracias a los cuales ha habido un impacto significativo en el mercado financiero. 

  1. Negociación automatizada

Los sistemas de negociación impulsados por IA pueden analizar grandes cantidades de datos y ejecutar transacciones automáticamente en función de algoritmos preestablecidos. Esto permite tomar decisiones más rápidas y precisas en las inversiones, sin necesidad de la intervención humana. También pueden incorporar varias estrategias comerciales, como el seguimiento de tendencias, la reversión a la media y el comercio de impulso, y utilizar técnicas avanzadas de aprendizaje automático y estadístico para predecir los movimientos futuros del mercado financiero. Al utilizar esta tecnología puede eliminarse el sesgo emocional y cognitivo que afectan la toma de decisiones de los brokers humanos.

  1. Análisis predictivos

Los algoritmos de IA pueden analizar datos históricos del mercado para identificar patrones y predecir tendencias futuras en el mercado financiero. El análisis predictivo se refiere al uso de datos, algoritmos estadísticos y técnicas de aprendizaje automático para examinar los movimientos de precios, los volúmenes de negociación, las noticias y otros indicadores relevantes, para identificar patrones y tomar decisiones informadas mediante la compra o venta de activos en función de los movimientos de mercado previstos. Sin embargo, no es infalible y puede tener imprecisiones, particularmente en mercados volátiles, por lo que la recomendación es combinar el análisis predictivo con otras técnicas de análisis y gestión de riesgos.

  1. Gestión de riesgos

La gestión de riesgos es una parte esencial del mercado financiero, ya que implica identificar y evaluar los riesgos potenciales y tomar medidas para mitigarlos. La inteligencia artificial puede desempeñar un papel crucial en la gestión de riesgos al analizar los datos del mercado más ampliamente y proporcionar recomendaciones. Los algoritmos de IA pueden monitorear las condiciones del mercado en tiempo real e identificar riesgos potenciales, como volatilidad del mercado, problemas de liquidez u otros eventos externos que podrían afectar el valor de los activos. A partir de este análisis, el sistema puede brindar recomendaciones para la gestión de posiciones, como la reducción de la exposición a determinados activos o la cobertura frente a posibles pérdidas.

  1. Análisis de sentimiento

El análisis de sentimiento se refiere al uso de procesamiento de lenguaje natural (NLP, por sus siglas en inglés) y técnicas de aprendizaje automático para estudiar las redes sociales y las noticias, e identificar el sentimiento del mercado hacia un activo o mercado en particular. Las herramientas de análisis de sentimiento impulsadas por IA pueden escanear miles de noticias y publicaciones en redes en tiempo real para identificar y anticipar los movimientos del mercado. Sin embargo, es importante tener en cuenta que el análisis de opinión puede estar sujeto a errores e imprecisiones, especialmente en situaciones en las que la opinión es ambigua. Los inversionistas siempre deben usar el análisis de sentimientos junto con otras técnicas. 

  1. Servicio al cliente

Los corredores de divisas pueden usar chatbots impulsados por IA para brindar atención al cliente las 24 horas del día, lo que puede mejorar la satisfacción y retención del cliente. Estos chatbots pueden manejar una amplia gama de consultas, como saldo de cuenta, solicitudes de historial de transacciones y problemas de ejecución. También usan técnicas de procesamiento de lenguaje natural (NLP) para comprender todas las consultas y proporcionar respuestas relevantes en tiempo real, lo que contribuye a una experiencia más satisfactoria para los clientes. Una mejor experiencia del cliente solo se puede lograr cuando los chatbots se usan junto con el apoyo y la supervisión humanos.

En general, la IA tiene el potencial de transformar la industria de divisas al proporcionar a los inversionistas información y herramientas valiosas para tomar decisiones más informadas, administrar la exposición al riesgo y mejorar el servicio al cliente. No obstante, es importante tener en cuenta que la IA debe usarse junto con otras formas de análisis y técnicas de gestión de riesgos para minimizar las pérdidas potenciales y maximizar los rendimientos.

USO ÉTICO DE LA INTELIGENCIA ARTIFICIAL: PROTECCIÓN DE DATOS PERSONALES ES EL TEMA QUE MÁS PREOCUPA A LAS EMPRESAS

USO ÉTICO DE LA INTELIGENCIA ARTIFICIAL PROTECCIÓN DE DATOS PERSONALES ES EL TEMA QUE MÁS PREOCUPA A LAS EMPRESAS Inteligencia Artificial

Pulso FGE-BackSpace

  • El sondeo realizado en el marco de la conferencia “Inteligencia Artificial y protección de datos: innovar con integridad”, mostró que un 31,4% afirma que le inquietan las fallas que estas tecnologías puedan presentar en el resguardo de datos personales.
  • Respecto de herramientas como ChatGPT, un 77,1% aseguró que no cuentan con una política interna que regule su uso. 

 

 


 

Los datos personales están en el centro de las preocupaciones de las empresas a la hora de hablar de inteligencia artificial y uso ético de las nuevas tecnologías. Así lo mostró un pulso realizado por Fundación Generación Empresarial (FGE) y BackSpace (consultora de IA, analítica y automatización de procesos), el cual se aplicó en el marco de la conferencia “Inteligencia Artificial y protección de datos: innovar con integridad”. En la actividad participaron el socio fundador de BackSpace, Maurizio Pancorvo; y el abogado experto en estos temas Raúl Arrieta, quienes intercambiaron puntos de vista en una conversación que fue moderada por Fernanda Hurtado, gerente general de FGE.

USO ÉTICO DE LA INTELIGENCIA ARTIFICIAL PROTECCIÓN DE DATOS PERSONALES ES EL TEMA QUE MÁS PREOCUPA A LAS EMPRESAS Maurizio Pancorvo

 

El sondeo “Inteligencia Artificial y ética: ¿Cuáles son las preocupaciones y urgencias?”  contó con las respuestas de representantes de 35 empresas y reveló que un 48% de ellos opina que la protección de datos personales es la medida que más urge desarrollar en Chile, seguida de la regulación del uso de la Inteligencia Artificial (34,3%) y la ciberseguridad (11,4%).

En la misma línea, un 31,4% afirmó que las fallas que se puedan presentar en el resguardo de los datos personales es el principal aspecto ético que les inquieta del uso de estas herramientas. Más atrás en materia de preocupaciones figuran fallas en la tecnología que pongan en riesgo la reputación corporativa y sesgos de la tecnología que generen decisiones discriminatorias por parte de las empresas (ambas con un 22,9%).

USO ÉTICO DE LA INTELIGENCIA ARTIFICIAL PROTECCIÓN DE DATOS PERSONALES ES EL TEMA QUE MÁS PREOCUPA A LAS EMPRESAS Fernanda Hurtado gerente general de FGE“El uso de la Inteligencia Artificial está impulsando a miles de empresas alrededor del mundo pero, a la vez, también ha despertado muchas inquietudes sobre su uso ético. En Fundación Generación Empresarial estamos comprometidos no solo con promover buenas prácticas y el cumplimiento de las leyes vigentes, sino también con abrir espacios para discutir cómo nos hacemos cargo de estos desafíos que aún no han sido resueltos por la regulación. Una actitud proactiva es clave para prevenir eventuales malas prácticas en este ámbito”, señaló Fernanda Hurtado, gerente general de FGE.

Por su parte Maurizio Pancorvo, experto en Inteligencia Artificial y fundador de la consultora BackSpace, recalcó la importancia de conversar estos temas dentro de las empresas. “Creo que el desafío de las compañías no está tanto en los costos o aplicación técnica de estas tecnologías, sino en el tema cultural de cómo nos preparamos para incorporar la Inteligencia Artificial de manera adecuada y ética. En este sentido, es fundamental tener conversaciones no solo a nivel directivo, sino con los propios equipos, informando sobre las inversiones que se harán, los efectos que esto tendrá en el trabajo diario y, sobre todo, atendiendo y resolviendo las legítimas dudas que las personas pueden tener sobre estos temas”.

Medidas que pueden adoptar las empresas

El pulso desarrollado por FGE y BackSpace consultó también a los participantes sobre las medidas que pueden adoptar las empresas para abordar el uso de las tecnologías de Inteligencia Artificial y la automatización. Los encuestados señalaron que las principales son una definición de políticas internas (37,1%), formación del personal en el uso éticos de estas herramientas (31.4%), capacitación de los empleados para que adquieran nuevas habilidades e incorporen la IA a sus tareas (20%) e incorporación de estos temas al comité de riesgos de (11,4%).

Sobre qué acciones ya están siendo implementadas en las organizaciones, un 77% de los encuestados reconoció que no poseen una política interna de regulación de tecnologías de inteligencia artificial como ChatGPT u otras, mientras que el 20% señaló que están trabajando en esto.

¿CÓMO GOBERNAMOS MEJOR LA IA?

CÓMO GOBERNAMOS MEJOR LA IA



Por: Brad Smith, presidente de Microsoft.


 

Esta publicación es el prólogo escrito por Brad Smith para el informe Governing AI: A Blueprint for the Future de Microsoft. La primera parte del informe detalla cinco formas en que los gobiernos deben considerar las políticas, leyes y regulaciones en torno a la IA. La segunda parte se centra en el compromiso interno de Microsoft con la IA ética y muestra cómo la empresa opera y construye una cultura de IA responsable.

 

“No preguntes qué pueden hacer las computadoras, pregúntate qué deberían hacer”. Ese es el título del capítulo sobre IA y ética en un libro del que fui coautor en 2019. En ese momento, escribimos que «Esta puede ser una de las preguntas definitorias de nuestra generación». Cuatro años después, la pregunta ha tomado el centro del escenario no solo en las capitales del mundo, sino también en muchas mesas.

 

A medida que las personas usaron o escucharon sobre el poder del modelo básico GPT-4 de OpenAI, a menudo se sorprendieron o incluso asombraron. Muchos se han entusiasmado o incluso emocionado. Algunos han estado preocupados o incluso asustados. Lo que quedó claro para casi todos es algo que notamos hace cuatro años: somos la primera generación en la historia de la humanidad en crear máquinas que pueden tomar decisiones que antes solo podían tomar las personas.

 

Los países de todo el mundo han comenzado a hacer preguntas comunes. ¿Cómo podemos utilizar esta nueva tecnología para resolver nuestros problemas? ¿Cómo evitamos o manejamos los nuevos problemas que podría crear? ¿Cómo controlamos una tecnología que es tan poderosa?

 

Estas preguntas requieren no solo una conversación amplia y reflexiva, sino también una acción decisiva y efectiva. Este documento ofrece algunas de nuestras ideas y sugerencias como empresa.

 

Estas sugerencias se basan en las lecciones que hemos aprendido con base en el trabajo que hemos realizado durante varios años. El director ejecutivo de Microsoft, Satya Nadella, nos puso en un rumbo claro cuando escribió en 2016 que, “Quizás el debate más productivo que podemos tener no es el del bien contra el mal: el debate debe ser sobre los valores inculcados en las personas y las instituciones que crean esta tecnología.»


Desde entonces, hemos definido, publicado e implementado principios éticos para guiar nuestro trabajo. Y hemos desarrollado sistemas de ingeniería y gobierno en constante mejora para poner estos principios en práctica. Hoy, tenemos casi 350 personas que trabajan en la IA responsable en Microsoft, lo que nos ayuda a implementar las mejores prácticas para construir sistemas de IA seguros, protegidos y transparentes diseñados para beneficiar a la sociedad.

 

Nuevas oportunidades para mejorar la condición humana


Los avances resultantes en nuestro enfoque nos han brindado la capacidad y la confianza para ver formas en constante expansión para que la IA mejore la vida de las personas. Hemos visto que la IA ayuda a salvar la vista de las personas, avanza en nuevas curas para el cáncer, genera nuevos conocimientos sobre las proteínas y proporciona predicciones para proteger a las personas del clima peligroso. Otras innovaciones evitan ataques cibernéticos y ayudan a proteger los derechos humanos fundamentales, incluso en países afectados por invasiones extranjeras o guerras civiles.

 

Las actividades cotidianas también se verán beneficiadas. Al actuar como copiloto en la vida de las personas, el poder de los modelos básicos como GPT-4 convierte la búsqueda en una herramienta más poderosa para investigar y mejorar la productividad de las personas en el trabajo. Y, para cualquier padre que haya tenido problemas para recordar cómo ayudar a su hijo de 13 años con una tarea de álgebra, la asistencia basada en IA es un tutor útil.

 

De muchas maneras, la IA ofrece quizás incluso más potencial para el bien de la humanidad que cualquier invención que la haya precedido. Desde la invención de la imprenta con tipos móviles en el siglo XV, la prosperidad humana ha crecido a un ritmo acelerado. Invenciones como la máquina de vapor, la electricidad, el automóvil, el avión, la informática e Internet han proporcionado muchos de los componentes básicos de la civilización moderna. Y, al igual que la propia imprenta, la IA ofrece una nueva herramienta para ayudar en verdad a avanzar en el aprendizaje y el pensamiento humanos.

 

Barandillas para el futuro


Otra conclusión es igual de importante: no es suficiente centrarse solo en las muchas oportunidades de usar la IA para mejorar la vida de las personas. Esta es quizás una de las lecciones más importantes del papel de las redes sociales. Hace poco más de una década, tecnólogos y comentaristas políticos por igual se entusiasmaron con el papel de las redes sociales en la difusión de la democracia durante la Primavera Árabe. Sin embargo, cinco años después, aprendimos que las redes sociales, como tantas otras tecnologías anteriores, se convertirían tanto en un arma como en una herramienta, en este caso dirigida a la democracia misma.

 

Hoy somos 10 años mayores y más sabios, y necesitamos poner esa sabiduría a trabajar. Necesitamos pensar desde el principio y con lucidez sobre los problemas que podrían surgir. A medida que avanza la tecnología, es tan importante garantizar un control adecuado sobre la IA como perseguir sus beneficios. Estamos comprometidos y decididos como empresa a desarrollar e implementar IA de manera segura y responsable. Sin embargo, también reconocemos que las barandillas necesarias para la IA requieren un sentido de responsabilidad compartido de manera amplia y no deben dejarse solo en manos de las empresas de tecnología.

 

Cuando en Microsoft adoptamos nuestros seis principios éticos para la IA en 2018, notamos que un principio era la base de todo lo demás: la responsabilidad. Esta es la necesidad fundamental: garantizar que las máquinas permanezcan sujetas a la supervisión efectiva de las personas, y que las personas que diseñan y operan las máquinas se mantengan responsables ante todos los demás. En resumen, siempre debemos asegurarnos de que la IA permanezca bajo control humano. Esta debe ser una prioridad de primer orden tanto para las empresas de tecnología como para los gobiernos.

 

Esto conecta de manera directa con otro concepto esencial. En una sociedad democrática, uno de nuestros principios fundacionales es que ninguna persona está por encima de la ley. Ningún gobierno está por encima de la ley. Ninguna empresa está por encima de la ley, y ningún producto o tecnología debe estar por encima de la ley. Esto lleva a una conclusión crítica: las personas que diseñan y operan sistemas de IA no pueden rendir cuentas a menos que sus decisiones y acciones estén sujetas al estado de derecho.

 

En muchos sentidos, esto está en el centro del debate regulatorio y de políticas de IA que está en desarrollo. ¿Cuál es la mejor manera en que los gobiernos se aseguran de que la IA esté sujeta al estado de derecho? En resumen, ¿qué forma deberían tomar las nuevas leyes, reglamentos y políticas?

 

Un plan de cinco puntos para la gobernanza pública de la IA
La sección uno de este documento ofrece un plan de cinco puntos para abordar varios problemas actuales y emergentes de IA a través de políticas públicas, leyes y regulaciones. Ofrecemos esto al reconocer que cada parte de este plan se beneficiará de una discusión más amplia y requerirá un desarrollo más profundo. Pero esperamos que esto pueda contribuir de manera constructiva al trabajo que tenemos por delante.

 

Primero, implementar y aprovechar los nuevos marcos de seguridad de IA liderados por el gobierno. A menudo, la mejor manera de tener éxito es basarse en los éxitos y las buenas ideas de los demás. En especial cuando uno quiere moverse con rapidez. En este caso, existe una importante oportunidad de aprovechar el trabajo realizado hace apenas cuatro meses por el Instituto Nacional de Estándares y Tecnología de EE. UU., o NIST. Parte del Departamento de Comercio, NIST completó y lanzó un nuevo marco de gestión de riesgos de IA.

 

Ofrecemos cuatro sugerencias concretas para implementar y desarrollar este marco, incluidos los compromisos que Microsoft hace en respuesta a una reunión reciente en la Casa Blanca con las principales empresas de inteligencia artificial. También creemos que la administración y otros gobiernos pueden acelerar el impulso a través de reglas de adquisiciones basadas en este marco.

 

En segundo lugar, exigir frenos de seguridad efectivos para los sistemas de IA que controlan la infraestructura crítica. En algunos sectores, las personas reflexivas preguntan cada vez más si podemos controlar de manera satisfactoria la IA a medida que se vuelve más poderosa. A veces se plantean preocupaciones con respecto al control de IA de infraestructura crítica como la red eléctrica, el sistema de agua y los flujos de tráfico de la ciudad.

 

Este es el momento adecuado para discutir esta cuestión. Este plan propone nuevos requisitos de seguridad que, en efecto, crearían frenos de seguridad para los sistemas de IA que controlan el funcionamiento de la infraestructura crítica designada. Estos sistemas a prueba de fallas serían parte de un enfoque integral para la seguridad del sistema que mantendría en mente la supervisión humana efectiva, la resiliencia y la solidez. En espíritu, serían similares a los sistemas de frenado que los ingenieros han incorporado durante mucho tiempo en otras tecnologías, como ascensores, autobuses escolares y trenes de alta velocidad, para gestionar de manera segura no solo los escenarios cotidianos, sino también las emergencias.

 

En este enfoque, el gobierno definiría la clase de sistemas de IA de alto riesgo que controlan la infraestructura crítica y garantizan tales medidas de seguridad como parte de un enfoque integral para la gestión del sistema. Las nuevas leyes requerirían que los operadores de estos sistemas construyan frenos de seguridad en los sistemas de inteligencia artificial de alto riesgo por diseño. Luego, el gobierno se aseguraría de que los operadores prueben los sistemas de alto riesgo de manera regular, para garantizar que las medidas de seguridad del sistema sean efectivas. Y los sistemas de IA que controlan el funcionamiento de la infraestructura crítica designada se implementarían solo en centros de datos de IA con licencia que garantizarían una segunda capa de protección a través de la capacidad de aplicar estos frenos de seguridad, para asegurar un control humano efectivo.

 

Tercero, desarrollar un amplio marco legal y regulatorio basado en la arquitectura tecnológica para la IA. Creemos que tendrá que haber una arquitectura legal y reglamentaria para la IA que refleje la arquitectura tecnológica de la propia IA. En resumen, la ley deberá asignar varias responsabilidades regulatorias a diferentes actores en función de su papel en la gestión de diferentes aspectos de la tecnología de IA.

 

Por esta razón, este plan incluye información sobre algunas de las piezas críticas que intervienen en la construcción y el uso de nuevos modelos generativos de IA. Al usar esto como contexto, propone que diferentes leyes establezcan responsabilidades regulatorias específicas sobre las organizaciones que ejercen ciertas responsabilidades en tres capas de la pila de tecnología: la capa de aplicaciones, la capa de modelo y la capa de infraestructura.

 

Esto debería aplicar primero las protecciones legales existentes en la capa de aplicaciones para el uso de IA. Esta es la capa donde la seguridad y los derechos de las personas se verán más afectados, en especial porque el impacto de la IA puede variar de manera notable en diferentes escenarios tecnológicos. En muchas áreas, no necesitamos nuevas leyes y regulaciones. En cambio, debemos aplicar y hacer cumplir las leyes y regulaciones existentes, para ayudar a las agencias y los tribunales a desarrollar la experiencia necesaria para adaptarse a los nuevos escenarios de IA.

 

Entonces habrá una necesidad de desarrollar nuevas leyes y regulaciones para modelos básicos de IA de alta capacidad, implementados mejor por una nueva agencia gubernamental. Esto tendrá un impacto en dos capas de la pila de tecnología. El primero requerirá nuevas regulaciones y licencias para estos modelos. Y la segunda supondrá obligaciones para los operadores de infraestructuras de IA sobre las que se desarrollen y desplieguen estos modelos. El plan que sigue ofrece objetivos y enfoques sugeridos para cada una de estas capas.

 

Al hacerlo, este plan se basa en parte en un principio desarrollado en las últimas décadas en la banca para proteger contra el lavado de dinero y el uso delictivo o terrorista de los servicios financieros. El principio «Conozca a su cliente», o KYC, por sus siglas en inglés, requiere que las instituciones financieras verifiquen las identidades de los clientes, establezcan perfiles de riesgo y supervisen las transacciones para ayudar a detectar actividades sospechosas. Tendría sentido tomar este principio y aplicar un enfoque KY3C que crea en el contexto de la IA ciertas obligaciones para conocer la nube, los clientes y el contenido de uno.

 

En primera instancia, los desarrolladores de modelos de IA potentes y designados primero «conocen la nube» en la que se desarrollan e implementan sus modelos. Además, como en el caso de escenarios que implican usos sensibles, la empresa que tiene una relación directa con un cliente, ya sea el desarrollador del modelo, el proveedor de la aplicación o el operador de la nube en el que opera el modelo, debe «conocer a los clientes» que acceden a él.

 

Además, el público debe estar facultado para «conocer el contenido» que la IA crea mediante el uso de una etiqueta u otra marca que informe a las personas cuando un modelo de IA ha producido algo como un archivo de video o audio en lugar de un ser humano. Esta obligación de etiquetado también debería proteger al público de la alteración del contenido original y la creación de «falsificaciones profundas». Esto requerirá el desarrollo de nuevas leyes, y habrá muchas preguntas y detalles importantes que abordar. Pero la salud de la democracia y el futuro del discurso cívico se beneficiarán de medidas bien pensadas para disuadir el uso de nuevas tecnologías para engañar o defraudar al público.

 

Cuarto, promover la transparencia y garantizar el acceso académico y sin fines de lucro a la IA. Creemos que un objetivo público crítico es promover la transparencia y ampliar el acceso a los recursos de IA. Si bien existen algunas tensiones importantes entre la transparencia y la necesidad de seguridad, existen muchas oportunidades para hacer que los sistemas de IA sean más transparentes de manera responsable. Es por eso que Microsoft se compromete con un informe anual de transparencia de IA y otros pasos para expandir la transparencia de nuestros servicios de IA.


También creemos que es fundamental ampliar el acceso a los recursos de IA para la investigación académica y la comunidad sin fines de lucro. La investigación básica, en especial en las universidades, ha sido de fundamental importancia para el éxito económico y estratégico de los Estados Unidos desde la década de 1940. Pero a menos que los investigadores académicos puedan obtener acceso a muchos más recursos informáticos, existe un riesgo real de que la investigación científica y tecnológica se vea afectada, incluso en relación con la propia IA. Nuestro plan requiere nuevos pasos, incluidos los pasos que tomaremos en todo Microsoft, para abordar estas prioridades.

 

En quinto lugar, buscar nuevas asociaciones público-privadas para utilizar la IA como una herramienta eficaz para abordar los inevitables desafíos sociales que surgen con la nueva tecnología. Una lección de los últimos años es lo que las sociedades democráticas pueden lograr cuando aprovechan el poder de la tecnología y unen a los sectores público y privado. Es una lección que debemos aprovechar para abordar el impacto de la IA en la sociedad.

 

Todos nos beneficiaremos de una fuerte dosis de optimismo claro. La IA es una herramienta extraordinaria. Pero, al igual que otras tecnologías, también puede convertirse en un arma poderosa, y habrá algunos en todo el mundo que buscarán usarla de esa manera. Pero deberíamos animarnos con el frente cibernético y el último año y medio en la guerra en Ucrania. Lo que descubrimos es que cuando los sectores público y privado trabajan juntos, cuando los aliados de ideas afines se unen y cuando desarrollamos tecnología y la usamos como escudo, es más poderosa que cualquier espada en el planeta.

 

Ahora se necesita un trabajo importante para usar la IA para proteger la democracia y los derechos fundamentales, proporcionar un amplio acceso a las habilidades de IA que promoverán el crecimiento inclusivo y utilizar el poder de la IA para promover las necesidades de sostenibilidad del planeta. Quizás más que nada, una ola de nueva tecnología de IA brinda una ocasión para pensar en grande y actuar con audacia. En cada área, la clave del éxito será desarrollar iniciativas concretas y reunir a gobiernos, empresas respetadas y ONG enérgicas para promoverlas. Ofrecemos algunas ideas iniciales en este informe y esperamos hacer mucho más en los próximos meses y años.

 

Gobierno de la IA dentro de Microsoft


En última instancia, toda organización que cree o utilice sistemas avanzados de IA deberá desarrollar e implementar sus propios sistemas de gobierno. La sección dos de este documento describe el sistema de gobierno de IA dentro de Microsoft: dónde comenzamos, dónde estamos hoy y cómo avanzamos hacia el futuro.

 

Como se reconoce en esta sección, el desarrollo de un nuevo sistema de gobierno para la nueva tecnología es un recorrido en sí mismo. Hace una década, este campo apenas existía. Hoy, Microsoft tiene casi 350 empleados que se especializan en esto e invertimos en nuestro próximo año fiscal para hacer crecer esto aún más.

 

Como se describe en esta sección, en los últimos seis años hemos creado una estructura y un sistema de gobierno de IA más completos en todo Microsoft. No empezamos desde cero, pues tomamos prestadas las mejores prácticas para la protección de la ciberseguridad, la privacidad y la seguridad digital. Todo esto es parte del sistema integral de gestión de riesgos empresariales (Enterprise Risk Management – ERM, por sus siglas en inglés) de la compañía, que se ha convertido en una parte crítica de la gestión de corporaciones y muchas otras organizaciones en el mundo de hoy.

 

Cuando se trata de IA, primero desarrollamos principios éticos y luego tuvimos que traducirlos en políticas corporativas más específicas. Ahora estamos en la versión 2 del estándar corporativo que incorpora estos principios y define prácticas más precisas para que las sigan nuestros equipos de ingeniería. Hemos implementado el estándar a través de sistemas de capacitación, herramientas y pruebas que continúan su maduración de manera rápida. Esto está respaldado por procesos de gobierno adicionales que incluyen medidas de seguimiento, auditoría y cumplimiento.

 

Como todo en la vida, uno aprende de la experiencia. Cuando se trata de la gobernanza de la IA, algunos de nuestros aprendizajes más importantes provienen del trabajo detallado requerido para revisar casos de uso sensibles específicos de la IA. En 2019, fundamos un programa de revisión de uso confidencial para someter nuestros casos de uso de IA más sensibles y novedosos a una revisión rigurosa y especializada que da como resultado una guía personalizada. Desde entonces, hemos completado alrededor de 600 revisiones de casos de uso sensibles. El ritmo de esta actividad se ha acelerado para igualar el ritmo de los avances de la IA, con casi 150 revisiones de este tipo en los 11 meses.

 

Todo esto se basa en el trabajo que hemos hecho y haremos para promover la IA responsable a través de la cultura empresarial. Eso significa contratar talento nuevo y diverso para hacer crecer nuestro ecosistema de IA responsable e invertir en el talento que ya tenemos en Microsoft para desarrollar habilidades y capacitarlos para pensar en términos generales sobre el impacto potencial de los sistemas de IA en las personas y la sociedad. También significa que mucho más que en el pasado, la frontera de la tecnología requiere un enfoque multidisciplinario que combine grandes ingenieros con talentosos profesionales de todas las artes liberales.

 

Todo esto se ofrece en este documento con el espíritu de que estamos en un recorrido colectivo para forjar un futuro responsable para la inteligencia artificial. Todos podemos aprender unos de otros. Y no importa cuán bueno podamos pensar que algo es hoy, todos debemos mejorar.


A medida que se acelera el cambio tecnológico, el trabajo para gobernar la IA de manera responsable debe seguirle el ritmo. Con los compromisos e inversiones correctos, creemos que se puede.


Reporte "Governing AI: A Blueprint for the Future" (eng.):

Usamos cookies en nuestro sitio web. Algunas de ellas son esenciales para el funcionamiento del sitio, mientras que otras nos ayudan a mejorar el sitio web y también la experiencia del usuario (cookies de rastreo). Puedes decidir por ti mismo si quieres permitir el uso de las cookies. Ten en cuenta que si las rechazas, puede que no puedas usar todas las funcionalidades del sitio web.