Cómo detectar el bombo publicitario sobre la IA y evitar el “engaño de la IA”, según dos expertos.
En su nuevo libro, The AI Con, los críticos de IA Emily Binder y Alex Hanna desmitifican la IA generativa.
“La inteligencia artificial, francamente, es una estafa: un producto que te venden para llenar los bolsillos de alguien”.
Ésta es la esencia del argumento presentado por la lingüística. emily dobladora y sociólogo Alex Hanna En su nuevo libro La estafa de la IA. Es una guía útil para cualquier persona cuya vida se haya cruzado con tecnologías que se venden como IA y para cualquiera que haya cuestionado su verdadera utilidad, es decir, la mayoría de nosotros. Bender es profesor de la Universidad de Washington y fue nombrado una de las personas más influyentes en IA por la revista Time, y Hanna es directora de investigación de la organización sin fines de lucro. Instituto de Investigación de IA Distribuida Un ex miembro del equipo de IA ética de Google.

La enorme popularidad de ChatGPT a finales de 2022 ha provocado un nuevo ciclo de revuelo mediático en torno a la inteligencia artificial. El hype, como lo definen los autores, es el “bombo publicitario” de una tecnología que estás convencido de que necesitas comprar o en la que debes invertir “para no perderte la diversión, la recompensa en efectivo, el retorno de la inversión o la participación de mercado”. Pero esta no es la primera vez, y probablemente no será la última, que científicos, líderes gubernamentales y gente común se han sentido atraídos y preocupados por la idea del aprendizaje automático y la inteligencia artificial.
Binder y Hanna rastrean las raíces del aprendizaje automático a la década de 1950, cuando el matemático John McCarthy acuñó el término inteligencia artificial. Esta fue una época en la que Estados Unidos buscaba financiar proyectos que ayudaran al país a obtener algún tipo de superioridad sobre los soviéticos a nivel militar, ideológico y tecnológico. "No surgió de la cabeza de Zeus ni nada por el estilo. Tiene una historia más larga", dijo Hanna a CNET. “Este ciertamente no es el primer ciclo de exageración con, cito, IA”.
El ciclo de exageración actual está impulsado por miles de millones de dólares en inversiones de capital de riesgo en empresas emergentes como OpenAI y gigantes tecnológicos como Meta, Google y Microsoft que invierten miles de millones en investigación y desarrollo de IA. El resultado es claro, como lo demuestra el último Los telefonos Las computadoras portátiles y las actualizaciones de software están saturadas con lavado de inteligencia artificial. No hay señales de que la investigación y el desarrollo de IA vayan a desacelerarse, gracias al creciente impulso por superar a China en el desarrollo de IA. En realidad este no es el primer ciclo de exageración mediática.
Por supuesto, la IA generativa en 2025 es mucho más avanzada que el chatbot de psicoterapia Eliza que cautivó a los científicos por primera vez en la década de XNUMX. Los líderes empresariales y empleados de hoy están inundados de publicidad mediática, con una fuerte dosis de miedo a perderse algo y una terminología aparentemente compleja pero a menudo mal utilizada. Al escuchar a los líderes tecnológicos y entusiastas de la IA, podría parecer que la IA ocupará su puesto de trabajo y le ahorrará dinero a su empresa. Pero los autores sostienen que ninguna de estas dos cosas es enteramente probable, y esa es una de las razones por las que es importante reconocer y acabar con la propaganda mediática.
Entonces, ¿cómo identificamos el revuelo por la IA? Aquí hay algunas señales reveladoras, según Binder y Hanna, que compartimos a continuación. Los autores describen una serie de preguntas y estrategias para identificar el revuelo por la IA en su libro. Disponible ahora en los Estados Unidos.
Preste atención al lenguaje que humaniza la IA.
La humanización, o el proceso de otorgar cualidades o características humanas a un objeto inanimado, es una gran parte del entusiasmo por la IA. Un ejemplo de este tipo de lenguaje es cuando las empresas de IA dicen que sus chatbots ahora pueden “ver” y “pensar”.
Estas comparaciones pueden ser útiles cuando se intenta describir la capacidad de los nuevos programas de IA para identificar objetos o modelos de IA con razonamiento profundo, pero también pueden ser engañosas. Los chatbots impulsados por IA no pueden ver ni pensar porque no tienen mente. Incluso la idea de las redes neuronales, como señala Hannah en nuestra entrevista y en el libro, se basa en una comprensión humana de las neuronas de la década de 1950, que en realidad no sabe cómo funcionan las neuronas, pero puede engañarnos haciéndonos creer que hay una mente detrás de la máquina.
Esta creencia es algo a lo que estamos predispuestos debido a la forma en que procesamos el lenguaje como humanos. Estamos condicionados a imaginar que hay una mente detrás del texto que vemos, incluso cuando sabemos que fue generado por inteligencia artificial, dijo Bender. “Interpretamos el lenguaje desarrollando un modelo en nuestras mentes de quién fue el hablante”, añadió Bandar.
En estos modelos, utilizamos nuestro conocimiento de la persona que habla para crear significado, no sólo el significado de las palabras que dice. "Entonces, cuando nos encontramos con texto sintético generado por algo como ChatGPT, haremos lo mismo", dijo Bandar. Es muy difícil recordarnos que la mente no existe. Es solo una construcción que hemos creado.
Los autores sostienen que parte del motivo por el que las empresas de IA intentan convencernos de que sus productos son similares a los humanos es que esto sienta las bases para convencernos de que la IA puede reemplazar a los humanos, ya sea en el trabajo o como creadores. Es convincente creer que la IA podría ser la solución mágica a problemas complejos en industrias críticas como la atención médica y los servicios gubernamentales.
Pero la mayoría de las veces, sostienen los autores, la IA no se utiliza para solucionar nada. La IA se vende por su eficiencia, pero los servicios de IA terminan reemplazando a trabajadores calificados por máquinas de caja negra que requieren importantes cantidades de cuidados por parte de trabajadores independientes o con contratos de bajos salarios. Como dijo Hannah en nuestra entrevista: “La IA no te quitará el trabajo, pero lo empeorará”.
Tenga cuidado con la frase “superinteligencia”.
Si los humanos no pueden hacer algo, debemos ser cautelosos con las afirmaciones de que la IA puede hacerlo. “Superinteligencia, o superinteligencia, es un término muy peligroso, en la medida en que sugiere que alguna tecnología hará que los humanos sean innecesarios”, dijo Hannah. En ciertas áreas, como la comparación de patrones a gran escala, las computadoras son muy buenas en eso. Pero si existe la idea de que va a surgir un poema innovador, o una idea revolucionaria para la investigación o la práctica científica, eso es claramente un ascenso. "No estamos hablando de aviones como súper aviones ni de gobernantes como súper medidas", añadió Bender. “Eso parece ocurrir sólo en el campo de la inteligencia artificial”.
La idea de IA de “superinteligencia” surge a menudo cuando se habla de inteligencia artificial general. A muchos ejecutivos les resulta difícil definir exactamente qué es la inteligencia artificial general (AGI), pero es esencialmente la forma más avanzada de inteligencia artificial, potencialmente capaz de tomar decisiones y manejar tareas complejas. Aún no hay evidencia de que estemos cerca de un futuro posibilitado por la IA general, pero es una palabra de moda popular.
Muchas de estas declaraciones futuristas de los líderes de IA toman prestados tropos de la ciencia ficción. Tanto los partidarios como los pesimistas (así describen Binder y Hannah a los entusiastas de la IA y a quienes se preocupan por el potencial daño) se basan en escenarios de ciencia ficción. Los partidarios imaginan una sociedad futura impulsada por inteligencia artificial. Los pesimistas lamentan un futuro en el que los robots con IA se apoderen del mundo y exterminen a la humanidad.
Según los autores, el vínculo común es la creencia profunda de que la IA es más inteligente que los humanos y es inevitable. “Una de las cosas que vemos mucho en el discurso es la idea de que el futuro está fijado y que es sólo cuestión de cuán rápido lleguemos allí”, dijo Bender. Luego está la afirmación de que esta tecnología en particular es un paso en esa dirección, y todo es marketing. Es útil poder ver más allá.
Parte de la razón por la que la IA es tan popular es que un asistente de IA funcional y autónomo significará que las empresas de IA cumplirán sus promesas de innovación que cambiará el mundo a sus inversores. Planificar este futuro, ya sea utópico o distópico, hace que los inversores miren hacia adelante mientras las empresas queman miles de millones de dólares y admiten que no alcanzarán sus objetivos de emisiones de carbono. Para bien o para mal, la vida no es ciencia ficción. Cuando ves a alguien afirmar que su producto de inteligencia artificial está sacado directamente de una película, es una buena señal acercarse a él con escepticismo.
Infórmese sobre las entradas de la IA y cómo evaluar sus salidas.
Una de las formas más fáciles de detectar el fraude de marketing de IA es verificar si la empresa revela cómo funciona. Muchas empresas de IA no revelan el contenido utilizado para entrenar sus modelos. Pero generalmente revelan lo que la empresa hace con sus datos y a veces se jactan de cómo sus modelos superan a los competidores. Aquí es donde debes comenzar tu investigación, generalmente en sus políticas de privacidad.
Una de las mayores quejas y preocupaciones de los creadores es cómo se entrenan los modelos de IA. Existen numerosas demandas relacionadas con supuestas violaciones de derechos de autor y existen muchas preocupaciones sobre el sesgo en los chatbots impulsados por IA y su potencial para causar daños. “Si quieres crear un sistema diseñado para hacer avanzar las cosas en lugar de reproducir las injusticias del pasado, tienes que empezar por organizar tus datos”, dice Bender. En cambio, las empresas de inteligencia artificial están apoderándose de “todo lo que no estaba instalado en Internet”, afirma Hannah.
Si escuchas sobre un producto de IA por primera vez, una cosa a la que debes prestar especial atención es cualquier tipo de estadística que destaque su eficacia. Al igual que muchos otros investigadores, Bender y Hannah señalan que cualquier resultado sin una cita es una señal de alerta. “Cada vez que alguien te vende algo y no te da acceso a su valor, estás en terreno inestable”, dice Bender.
Puede ser frustrante y decepcionante que las empresas de IA no divulguen información específica sobre cómo funcionan sus productos y cómo se desarrollaron. Sin embargo, reconocer estas lagunas en su discurso de ventas puede ayudar a aclarar la situación, aunque sería mejor tener la información. Para obtener más información, consulte Glosario de ChatGPT Nuestro completo y como apagarlo Inteligencia de Apple.
Los comentarios están cerrados.