Google ha lanzado nuevas herramientas de IA como PaLM y Live Assist, así como la apertura del acceso a su chatbot Bard a más de 180 países. Sin embargo, los expertos advierten de los riesgos asociados con la introducción de tecnologías de IA debido a sus fallos y la falta de soluciones para ellos. Además, existe la posibilidad de que los reguladores y consumidores rechacen su uso. A pesar de estas preocupaciones, Google continúa apostando por la IA, pero debe tener cuidado en su uso y mejorar la seguridad de sus modelos. Artículo publicado en technologyreview.es y recomendado por Digital Skills Institute el 15 de mayo de 2023.
Google ha anunciado nuevas herramientas de inteligencia artificial (IA) en su conferencia anual I/O, incluyendo un modelo lingüístico de IA llamado PaLM y un asistente de codificación llamado Live Assist. Además, Google ha abierto el acceso a su chatbot Bard a más de 180 países. Sin embargo, expertos advierten contra el uso precipitado de estos modelos de IA debido a sus fallos y la no existencia de soluciones para ellos. También existe el riesgo de rechazo por parte de reguladores y consumidores.
Google ha tardado más que otros competidores en lanzar productos basados en IA por motivos de seguridad y riesgos de reputación, pero se ha visto obligado a hacerlo debido a la feroz competencia. Incorporar modelos de IA que aún presentan fallos podría provocar problemas contraproducentes. Además, la apertura de acceso a Bard podría llevar a vulnerabilidades y errores por parte de usuarios no expertos en programación.
Aunque Google realiza pruebas periódicas para mejorar la seguridad de sus modelos, la vulnerabilidad persiste. Los modelos lingüísticos de IA son propensos a inventarse cosas y generar contenidos tóxicos. La UE está actualmente trabajando en una regulación sobre el uso de la IA, mientras que en EE UU, la Casa Blanca hizo un llamado a los líderes de Google, Microsoft y OpenAI para debatir sobre la necesidad de desarrollar la IA de manera responsable.
Si alguno de los temores relacionados con la IA termina por materializarse, podría dar a los reguladores o legisladores motivos para actuar con la contundencia necesaria para exigir responsabilidades a Google. No obstante, la empresa no quiere arriesgarse a perder terreno frente a sus rivales y apuesta por crear herramientas potentes de IA, utilizando la estrategia de ponerlas en manos del público para incorporarlas en su vida diaria.
En resumen, Google ha anunciado nuevos modelos de IA como PaLM y herramientas como Bard y Live Assist, pero hay riesgos asociados con la incorporación de estos productos a los ya existentes debido a sus fallos y la no resolución de ellos. Además, la empresa se enfrenta a posibles regulaciones y demandas por el uso responsable de la IA. Aunque Google sigue apostando por la IA, debe tener cuidado en su uso y realiza pruebas para mejorar la seguridad de sus modelos.