Estudio: El ruido de la IA dificulta la investigación real sobre IA
Un nuevo estudio publicado este mes por la Asociación para el Avance de la Inteligencia Artificial (AAAI), en el que participaron cientos de investigadores de IA, tiene un hallazgo clave: es poco probable que nuestro enfoque actual hacia la IA nos lleve a una inteligencia artificial general.
La inteligencia artificial ha sido un tema de conversación popular en los últimos años, pero el campo de la IA como área de investigación científica existe desde hace décadas. Por ejemplo, el famoso artículo de Alan Turing "Computing Machinery and Intelligence" y el Test de Turing del que todavía hablamos hoy se publicaron en 1950.
La IA de la que todo el mundo habla hoy nació de estas décadas de investigación, pero también se está alejando de ellas. En lugar de ser una investigación científica, ahora también tenemos una rama distinta de IA que podemos llamar “IA comercial”.

Grandes monopolios como Microsoft, Google, Meta, Apple y Amazon están liderando esfuerzos comerciales en IA, con el objetivo principal de crear productos de IA. Esto no debería ser un problema, pero por ahora parece que podría serlo.
En primer lugar, dado que la mayoría de las personas solo han seguido las investigaciones sobre IA durante un par de años, todo lo que la persona promedio sabe sobre IA proviene de estas empresas, no de la comunidad científica. El estudio abarca Este tema se aborda en el capítulo “Percepción vs. Realidad”, donde el 79% de los científicos participantes cree que las percepciones actuales de las capacidades de la IA no coinciden con la realidad de la investigación y el desarrollo de la IA.
En otras palabras, lo que el público en general piensa que la IA puede hacer no coincide con lo que los científicos piensan que la IA puede hacer. La razón de esto es tan simple como desafortunada: cuando un alto ejecutivo tecnológico hace una declaración sobre IA, no es una opinión científica: es marketing de producto. Quieren promocionar la tecnología que impulsa sus nuevos productos y asegurarse de que todos sientan la necesidad de sumarse a la tendencia.
Cuando él dice sam altman O Mark Zuckerberg Los empleos de ingeniería de software serán reemplazados por IA, por ejemplo, porque quieren influir en los ingenieros para que aprendan habilidades de IA e influir en las empresas tecnológicas para que inviertan en planes empresariales costosos. Sin embargo, a menos que comiencen a reemplazar a sus ingenieros (y aprovechen eso), personalmente no creería ni una palabra de lo que digan sobre el tema.
Sin embargo, no es solo la percepción del público lo que influye la IA comercial. Los participantes del estudio creen que el “bombo publicitario sobre la IA” creado por las grandes empresas tecnológicas está perjudicando los esfuerzos de investigación. Por ejemplo, el 74% está de acuerdo en que la dirección de la investigación en IA está determinada por la publicidad, probablemente porque la investigación que se alinea con los objetivos comerciales de IA es más fácil de financiar. El 12% también cree que la investigación teórica sobre IA está sufriendo como resultado de ello.
Entonces, ¿qué tan grave es este problema? Incluso si las grandes empresas tecnológicas influyen en el tipo de investigación que hacemos, las sumas presumiblemente enormes que invierten en este campo deberían tener un impacto positivo general. Sin embargo, la variedad es clave cuando se trata de investigación: necesitamos recorrer todo tipo de caminos diferentes para tener la posibilidad de encontrar el mejor.
Pero las grandes empresas tecnológicas se centran actualmente en una sola cosa: grandes modelos de lenguaje. Este tipo específico de modelo de IA es el que impulsa casi todos los productos de IA más recientes, y personas como Sam Altman creen que, al escalar cada vez más estos modelos (es decir, dotándolos de más datos, más tiempo de entrenamiento y mayor potencia de cálculo), eventualmente lograremos una IA general.
Esta idea, conocida como la hipótesis de escala, dice que cuanto más potencia le damos a la IA, mayores serán sus capacidades cognitivas y menores sus índices de error. Algunas interpretaciones también dicen que surgirán nuevas capacidades cognitivas inesperadamente. Por lo tanto, aunque por ahora los modelos de lenguaje de gran tamaño no son muy buenos para planificar y razonar sobre problemas, estas capacidades deben surgir en algún momento.
no hay pared
- Sam Altman (@sama) 14 de noviembre.
Sin embargo, en los últimos meses, la hipótesis de expansión ha enfrentado duras críticas. Algunos científicos creen que ampliar los modelos de lenguaje de gran tamaño nunca conducirá a la IAG, y creen que todo el poder adicional que le damos Nuevos modelos Ya no produce resultados. En cambio, nos hemos topado con un "muro de escala" o un "límite de escala" donde grandes cantidades de potencia computacional y datos adicionales conducen solo a mejoras menores en los nuevos modelos. La mayoría de los científicos involucrados en el estudio AAAI están de este lado del argumento:
La mayoría de los encuestados (76%) afirmó que es “poco probable” o “muy poco probable” que “ampliar los enfoques actuales de IA” para lograr la IAG tenga éxito, lo que indica dudas sobre si los modelos actuales de aprendizaje automático son suficientes para lograr la inteligencia general.
Los grandes sistemas lingüísticos actuales pueden producir respuestas muy relevantes y útiles cuando las cosas van bien, pero... Basado en principios matemáticos Para hacerlo. Muchos científicos creen que necesitaremos nuevos algoritmos que utilicen la lógica, la razón y el conocimiento fáctico para llegar a una solución si queremos avanzar hacia el objetivo de la inteligencia artificial general. He aquí una cita mordaz sobre los grandes sistemas de lenguaje y la inteligencia artificial en general. Trabajo de investigación de 2022 Por Jacob Browning y Yann LeCun.
Un sistema entrenado sólo con el lenguaje nunca se acercará a la inteligencia humana, incluso si fuera entrenado desde ahora hasta que se extinga el calor del universo.
Sin embargo, no hay forma de saber quién tiene razón aquí; todavía no. Por un lado, la definición de inteligencia artificial general no es fija y no todos buscan lo mismo. Algunas personas creen que la inteligencia artificial general debería producir respuestas similares a las humanas a través de métodos similares a los humanos, es decir, debería observar el mundo que la rodea y resolver problemas de una manera similar a nosotros. Mientras que otros creen que la IA general debería centrarse más en respuestas correctas en lugar de respuestas humanas, y que los métodos que utilice no deberían importar.
Sin embargo, en muchos sentidos, no importa realmente qué versión de IAG le interese o si está a favor o en contra de la hipótesis de ampliación: todavía necesitamos diversificar nuestros esfuerzos de investigación. Si nos centramos únicamente en escalar modelos de lenguaje grandes, tendremos que empezar desde cero si no funcionan y podemos no descubrir métodos nuevos más efectivos o eficientes. Muchos de los científicos involucrados en este estudio temen que la IA comercial y la propaganda que la rodea frenen el progreso real, pero todo lo que podemos hacer es esperar que se aborden sus inquietudes y que ambas ramas de la investigación en IA puedan coexistir y avanzar juntas. Bueno, también puedes esperar que Burbuja de IA Todos los productos tecnológicos impulsados por IA explotan y desaparecen en el olvido, si lo prefieres.
Los comentarios están cerrados.