La Inteligencia Artificial (IA) está transformando a empresas de todos los sectores y ya es habitual que las organizaciones incorporen este tipo de tecnologías en sus estrategias. Una tendencia que en los próximos años aumentará, de hecho según el último Growth Report de Twilio Segment el 54% de los 2.450 líderes empresariales encuestados prevé un incremento en sus inversiones el próximo año.
Pero, ¿realmente la Inteligencia Artificial supone un valor añadido para las empresas o están sucumbiendo ante una tendencia imparable? Herramientas como la IA Generativa o los chatbots nos ayudan a simplificar nuestro trabajo y a ofrecer una mejor experiencia de cliente. Sin embargo, también encontramos ejemplos de errores que suponen pérdida de tiempo y dinero. Automatizaciones incorrectas, baja calidad y mala interpretación de datos o, incluso, fallos que cuestionan la ética y moral de estas herramientas hacen que la IA no sea apta para todos.
Incluso gigantes como Amazon, Google o Microsoft han fallado desarrollando algunas de sus inteligencias artificiales, acabando desechándolas, ya sea porque no han cumplido con las elevadas expectativas o porque sus errores han generado desconfianza en los usuarios.
Como señala Miguel Clavero, CEO de Nivoria, agencia española especializada en Marketing Digital “ La Inteligencia Artificial bien implementada puede brindarnos información muy útil. Por ejemplo, en el área del marketing digital la IA permite analizar grandes volúmenes de datos, realizar análisis predictivos o realizar una segmentación de audiencia más precisa. Ahora bien, la supervisión humana siempre será clave para no caer en campañas erróneas que nos hagan obtener un mal ROI.”
4 herramientas impulsadas por IA que no funcionan
- La búsqueda por voz. Desde 2017 Amazon ha perdido decenas de miles de millones de dólares con Alexa, según publicaba el Wall Street Journal el pasado julio. Y no son los únicos, Microsoft acabó con su asistente Cortana en 2023, relegándola únicamente a Outlook mobile, y Google está estancado. Estos fracasos se deben a varios factores: los usuarios no hacen el uso que se esperaba de estos dispositivos, prefiriendo a otras IAs para consultas importantes, y seguir el ritmo al que evoluciona la Inteligencia Artificial es muy costoso. Por cierto, Amazon lo está intentando de nuevo utilizando la IA de Anthropic, competencia de ChatGPT, para su nueva Alexa
El 54% de los líderes empresariales prevé aumentar sus inversiones en Inteligencia Artificial (IA) durante el próximo año
- La imperfecta IA de Google. Por todos es conocido el escándalo de Google con su herramienta de IA Generativa, Gemini. El pasado año saltaban las alarmas cuando la herramienta comenzó a generar imágenes históricas erróneas dando lugar a cuadros como soldados nazis negros. El gigante pidió perdón en un comunicado y alegó un fallo por “demasiada inclusividad”, pero el error se tradujo en una crisis de credibilidad y una pérdida de 95.000 millones de dólares en bolsa. Google se volvió más cauteloso y, aunque ha lanzado otras versiones de Gemini o la herramienta Bard para generar texto, otras empresas como Open AI o el propio Amazon ya le han tomado la delantera
- Las IAs generadoras de texto. Los textos generados por IA suelen seguir una misma estructura e incluso pueden tener fallos gramaticales. Los escritos son muy impersonales y carecen de tono comunicativo al no tener una opinión propia. Además, la información que brinda puede llegar a ser muy general y simplista porque no tiene en cuenta el contexto del tema sobre el que se le pregunta. Si utilizamos esta IA en la creación de copys para redes sociales es posible que el algoritmo nos penalice si detecta estas características
- Las herramientas para localizar textos escritos con IA. Con el auge de ChatGPT la inquietud llegó también al ámbito académico porque era posible que los alumnos pudieran escribir trabajos en cuestión de minutos y, además, aprobar. Aunque algunas startups han centrado sus esfuerzos en desarrollar herramientas que puedan localizar escritura generada con IA, las pruebas han concluido que es muy difícil identificarlo, sobre todo cuando el texto generado ha sido tratado y adaptado por un humano. De momento estas herramientas solo pueden alertar de “sospechas”.