Acceder

¿Está la IA a un paso de otra burbuja de punto com?

Los CEOs de las empresas de IA ganan dinero con el hype (entusiasmo). ¿Qué ocurre si el desempeño del software y el hype divergen? ¿Cómo se compensa esa divergencia?

Ya desde hace algún tiempo he venido explicando que la IA es una calculadora que usa estadística y cálculo para masticar datos. ¿Se está haciendo uso apropiado de la herramienta?  La lógica nos indica que la herramienta debería usarse donde el cálculo y la estadística fueran muy útiles. Pero el hype trata de ir en dirección a la ciencia ficción, para hacerte creer que estamos a un paso de la AGI, la inteligencia artificial general.

Los chatbots predicen probabilísticamente la siguiente palabra, de modo que no razonan, no usan la lógica, no infieren o deducen. ¿Es eso inteligente?  Y la verdad no es probabilística. Imagínate que te den una receta de medicamentos probabilística, o te den un consejo sobre cuantas piedras debes comer al día.

Todo eso no sería tanto problema si fuesen solo palabras, pero las empresas siguieran generando ganancias. Sin embargo miramos algunos comentarios preocupantes como este...

" Soy programador. En la llamada de resultados de mi empresa dijeron que estamos invirtiendo más en IA que nuestros competidores, y los inversionistas se volvieron locos. Piensa en eso. Los INVERSORES están aplaudiendo porque estamos GASTANDO más dinero en IA. No por los resultados. No por las ganancias. No por la satisfacción del cliente. Están pagando por darle dinero a estafadores. Mi empresa también despidió a un montón de personas porque bla bla bla IA. ¿Y adivina qué? Estamos hasta el cuello en trabajo sin terminar. La misma cantidad de trabajo necesita hacerse, solo que ahora hay menos gente para hacerlo. Y no, la IA no nos está haciendo más rápidos. Estas empresas pronto estarán contratando como locos. "

Ya no se están gastando el dinero en ver como ponen un tercer baño en la empresa, sino en IA.  ¿Y para qué sirve la IA, esa calculadora con estadística y cálculo?

Los mejores usos de la IA como calculadora no son impresionantes, pero sí muy útiles.  Con la IA bien usada puedes separar pistas de audio, puedes generar texturas sofisticadas para juegos, o puedes hacer interpolaciones no lineales de datos cuando tienes colecciones de datos incompletas, por ejemplo.  Pero eso no impresiona a nadie.  No se parece al gurú que predice el futuro astrológico con el calendario agrícola Maya.

También te puede interesar ver esto.
VIDEO: LA IA ES UNA FARSA
¿Cómo saber si las investigaciones sobre IA van apropiadamente y no son una estafa?  Lo primero es que necesitas ser inversor de I+D.  En I+D se tiene un modelo de cómo deben funcionar los procesos de I+D.

Este es el modelo que usa la NASA, un modelo llamado Technology Readiness Level o TRL.  Cada nivel tiene hitos que deben lograrse, y el inversor paga una cantidad para que se logren esos hitos. ¿No se logró?  El que hace I+D debe conseguirse el dinero faltante o abortar el proyecto, porque los inversores no se lo darán.  Es decir, el inversor paga por cosas específicas en cada nivel. Y si quieren que el inversor pague en el siguiente nivel, deben lograrse los hitos predefinidos del anterior. No se vale hacer demostraciones falsas de cumplimiento de hitos.


Eso es muy distinto de usar el dinero de la empresa para I+D en IA y no para producir ganancias.  Es muy distinto de apostar por un hype nebuloso, con un sueño lejano de ciencia ficción.

En el mundo financiero, obsesionado con dar poco a los clientes a cambio de mucho dinero, esto del TRL es desconocido, es como pedirle al analfabeto que resuelva ecuaciones astrodinámicas. No saben nada de la NASA ni del TRL.  Menos aún sobre cómo se invierte en I+D.  No ves escuelas financieras enseñando TRL a contadores o financieros o banqueros.

Lo que se mira en el mundo de la IA, parece ser poco halagüeño.  La IA es una solución a un problema que no hemos encontrado, y no hay ni siquiera un modelo de negocios detrás. Y quizás ni siquiera hitos de un TRL.

Ya lo dice el dicho sabio "si solo sabes de panadería, invierte en panadería" pues de otro modo te pueden alimentar con cuentos de marcianos al invertir.

¿Nos acercamos a una burbuja de punto com con la IA? Dificil de predecir, pero a juzgar por las señales, parece al menos posible.  Es que del hype al desempeño hay una distancia.  Y la prácticas y el alfabetismo en I+D y TRL parece escaso.

Si miras un video como este, ¿qué pensarías?  ¿IA stocks?  ¿Cuál es el modelo de negocios de la IA?  ¿Cuáles son los hitos?



Un analfabeto en temas aeroespaciales, por ejemplo, podría ver atractivo invertir en un proyecto de ciudades colgantes que cuelgan de asteroides en órbita.  Y te pintan la ciudad de las nubes de Star Wars.  Hermoso. ¿A qué equivale esto?  Si no sabes de mecánica orbital pones tu dinero, pero el que si sepa y tenga alfabetismo científico sabe que esa inversión es como invertir en jets de combate que remolcan submarinos.  Ridículo ¿no te parece?  Bueno, el alfabetismo importa.

Igual sucede con la I+D.  El alfabetismo importa. Saben de panadería los inversionistas, pero invierten en la versión IA de remolcadores voladores para submarinos.
7
¿Te ha gustado el artículo?

Si quieres saber más y estar al día de mis reflexiones, suscríbete a mi blog y sé el primero en recibir las nuevas publicaciones en tu correo electrónico.

  1. en respuesta a Comstar
    -
    #7
    11/10/24 06:56
    Te recomiendo la atenta escucha de este podcast, para que puedas hablar de este tema con conocimiento de causa. 199- ¿Estamos ante el final de la raza humana? Con Plácido Doménech y Julián Estevez - ESPURNA - Podcast en iVoox
  2. en respuesta a Alfon1974
    -
    Top 100
    #6
    03/10/24 14:56
    La IA ve lo que ve.  Y lo que no ve, no lo ve del todo. Basta que te salga un corner case para que deje de ver y se ponga a suponer con base en lo que ve. 

    Te pongo un ejemplo simplificado. Digamos que un coche va en la mañana y solo ve calle, cielo  (que determina donde esta el horizonte) y coches. Pero un contenedor blanco se ha volcado en la calle y está atravesado en la pista.  El contenedor no parece coche ni calle. Entonces debe ser cielo y pasa a través del contenedor.y se estrella y se muere el conductor.

    El contenedor es un corner case, altamente improbable, pero está allí. Y son estos corner cases los que hacen que aún no se aprueben los autónomos.  Siempre habrá un nuevo corner case en el mundo real, aún en los ambientes más controlados.

    Y la IA aprende muy lento.  Necesita muchos datos para aprender un corner case.  ¿Le confiarías tu vida a esa máquina?  ¿Era fiable la IA?  Pues si, excepto con el corner case, donde ajustó el contenedor y creyó que era cielo.  La IA sigue siendo una máquina tonta. 

    Confundes la familiaridad con el riesgo, y la falta de datos con probabilidad cero.  Es allí donde la IA es sumamente peligrosa, más peligrosa que un poco fiable humano que no se atreverá a chocar contra el contenedor.




  3. en respuesta a Comstar
    -
    #5
    03/10/24 05:51
    Ya, pero los humanos son como son, y eso no lo vamos a cambiar; pero la IA aplicada a la conducción autónoma intenta imitar a los mejores conductores, los que no han tenido un accidente tras 40 años conduciendo a diario, y estos conductores son muy escasos. Nadie pretende que la IA sea algo perfecto, pero desde luego será mucho mejor que los falibles y lentos humanos.
  4. en respuesta a Alfon1974
    -
    Top 100
    #4
    03/10/24 00:54
    Bajarían siempre que no ocurra un corner case que cause un falso positivo o falso negativo de IA que mate gente. El mundo real tarde o temprano muestra corner cases, y las formas de morir, o peor si sobrevive, a manos de un robot son grotescas.  Recuerdo un caso de alguien que fue arrastrado 6 metros por un coche autonomo en California.

    La razón por la que los humanos causan accidentes es porque juegan minijuegos al volante en lugar de pensar en ir de A a B.  Si dejan de jugar, son mejores que la IA.
  5. en respuesta a Comstar
    -
    #3
    02/10/24 18:24
    Hay coches autónomos, lo que pasa es que por problemas legales no está autorizado en la mayor parte de los países o ciudades, debido a que hay (muy pocos) accidentes producidos por coches autónomos. Pero si ahora mismo toda la conducción fuera autónoma, los muertos y heridos por accidente de tráfico bajarían drásticamente.
    La IA no es totalmente fiable y necesita supervisión, pero puede facilitar que un experto haga 10 veces más trabajo en el mismo tiempo. No va a hacer que los humanos dejemos de trabajar (esto sería un grave problema) pero sí aumentar de manera espectacular la productividad de amplios sectores de la economía. Eso es justo lo que nuestra civilización necesita en un momento de estancamiento secular de la economía, de envejecimiento de la población y de escasez de mano de obra en las economías desarrolladas. La IA puede dar el impulso que necesitamos para seguir creciendo las próximas décadas.
  6. en respuesta a Alfon1974
    -
    Top 100
    #2
    01/10/24 17:44
    LA IA puede ser muy útil, pues usa estadistica y cálculo. Cualquier buen uso de esos dos es para maravillarse. Pero hoy no están tratando de lograr eso. 

    Hoy es igual que en la burbuja del puntocom. Nadie niega que tener un sitio web puede ser bueno. Pero la manera en que inflaron las acciones solo por tener página web era excesivo.  Tener sitio web no es fantastico si lo que tienes es un brochure online sin tráfico. 

    Hoy la IA no está siendo aprovechada en esas áreas que te pueden maravillar, y todo es culpa del hype de ChatGPT que crea expectativas falsas. La IA tiene limitaciones, las que da la estadística y el cálculo, o la que da un martillo que se usa como desatornillador.

    Y por supuesto los que se maravillan son los técnicos, pero eso no va a impresionar a inversores. Lllevamos años con la promesa de coches autónomos con IA. Y aún no los tenemos. Es que la IA necesita tener TODOS los casos para trabajar bien, pero el mundo real siempre saca nuevos falsos positivos y falsos negativos. Y por eso no hay coches autónomos aún.

    La IA es muy peligrosa con esos falsos positivos y negativos, porque antes con el software normal, esos casos te daban error. Con la IA solo te arroja un resultado incorrecto sin avisar.  Por eso los resultados de IA deben ser validados siempre. Piensa en la IA como una sugerencia, el humano debe decidir si la sugerencia es correcta o no. No va a dejar a la gente sin trabajo.

    Por ejemplo, sabemos que para enviar un objeto a órbita baja, gastas más o menos 9 partes de energía para alcanzar velocidad orbital y una para lograr la altura orbital. Si usas IA para calcular eso, los números más o menos deberían calzar dentro de cierto rango.  Si miras resultados que no son 9 a 1 sino 12 a 10 o 5 a 3, sabes que está mal algo en la IA.  Este es un ejemplo muy simplificado para dar una idea sobre validar resultados.

    No confies tanto en la IA. Es una calculadora. Tienes que validar los resultados.
  7. #1
    01/10/24 07:45
    Yo hablo con informáticos y están maravillados de las posibilidades de la IA, les permite hacer 10 veces más trabajo en el mismo tiempo que antes. En mi trabajo, la medicina, necesito buscar con frecuencia información sobre temas complejos que no son mi especialidad y me ahorra muchísimo tiempo; ojalá hubiera existido la IA hace 30 años. En fin, cada uno habla de su experiencia. ¿Cuál ha sido tu experiencia personal y profesional con la IA?