domingo 07 julio 2024

Deep Learning, o la neurona que somos todos

por Daniel Iván

Cuando hablamos de máquinas solemos hablar del ser y del quehacer maquinal. Si nos atenemos al imaginario más vigente entenderemos que todavía solemos asociar ese concepto, “maquinal”, con acciones repetitivas, desmotivadas, carentes de emoción o de intelecto y, primordialmente, carentes de fuerza volitiva.

De hecho, aun cuando es innegable que detrás de cada máquina hay ingenio e intelecto la herramienta per se es una entidad hueca carente de sentido o propósito si no es manipulada por un ser humano. Es decir, el propósito de la máquina está atado al propósito de la mente humana que la crea y la utiliza, y está asimismo atada a las prerrogativas éticas y/o morales de quien la manipula. Por sí misma, la máquina es una entidad neutral, estática: inane de la más absoluta de las formas.

En términos estrictos, sin embargo, la industrialización trajo consigo un paradigma opuesto al anterior y un cuestionamiento a posteriori: si la máquina está al servicio del ser humano, ¿por qué hay tantos seres humanos que parecen al servicio de la máquina?; y, más aún, ¿por qué reemplaza la máquina al ser humano en virtud de su eficacia, de su rapidez o exactitud, evidenciando no sólo la incapacidad de las personas para el quehacer maquinal sino, al mismo tiempo y quizás más trágicamente, evidenciando el carácter moral o inmoral de ese quehacer en virtud de todo lo humano?

Por supuesto, este choque de paradigmas subsiste y se subraya en la era de la Inteligencia Artificial y la Robótica, en la era digital y en la era de los bienes culturales intangibles, y nos abre los ojos a una verdad incontrovertible: nuestra perspectiva del uso y disfrute de la tecnología en el mundo actual está inmersa en una paradoja de muy difícil resolución que, en todo caso, no encuentra resolución en el pragmatismo pero tampoco en el humanismo a rajatabla. Es decir, no encontramos respuestas en la resolución de las necesidades a las que responde la máquina ni las encontramos en la sospecha siempre latente de que esas necesidades surgieron para justificar a la máquina, y no al revés.

Esta paradoja no es de fácil articulación pero podría resumirse en el axioma de Ray Kurzweil “si la inteligencia Artificial se erige como una amenaza para la existencia, créanme que no será la primera”.1 En ese sentido, la observación inevitable del “ser humano trabajando para la máquina” se constituye en la primera fase de todo peligro posible porque, ya lo dijimos, detrás de cada máquina hay intelecto y espíritu humano y hoy no hay nadie que no trabaje para la máquina. Quizás el paso del tiempo y las consecuencias del uso de la tecnología apropiada arrojen luz sobre estas cuestiones.

Es hoy, sin embargo, cuando las preguntas éticas están más en su caldo de cultivo; hoy, que la tecnología está desarrollándose de una manera sin precedentes y a una velocidad que nunca antes habíamos presenciado. Hoy, también, que cada uno de nosotros, sin salvedades, sin excepciones económicas, culturales o etarias, estamos conectados de manera cuasi permanente al extremo de un mecanismo invisible, no por ello menos real, de interacciones maquinales.

Si profundizamos en algunos conceptos sobre la Inteligencia Artificial (ya no desde la perspectiva comercial sino desde algunos conceptos propios del desarrollo y el análisis “serio” del tema) pronto nos daremos cuenta de que la interacción máquina-humano sigue siendo central no únicamente para la usabilidad sino también para el desarrollo inherente de las “nuevas” capacidades maquinales.

En este sentido, el advenimiento del “Deep Learning” (o “Aprendizaje Profundo”) supone la cúspide de esa interacción, al menos en su primer estadio. Tanto Google Brain como Intel y otras compañías de desarrollo tecnológico reconocen que el modelo de “redes neuronales” (sistemas algorítmicos, de hardware y software diseñados a partir del modelo neuronal propio del cerebro humano) tiene un parecido fundamental, casi fundacional, con Internet. Brain incluso reconoce que varios de sus proyectos de IA están basados en el uso del internet como principal red neuronal.

¿Qué significa esto, en términos llanos? Básicamente que usted y yo, al extremo de un dispositivo que conecta el mundo análogo con el mundo digital, constituimos una neurona en un cerebro tan diáfano como inabarcable; cerebro que a su vez alimenta y da forma a los mecanismos de inteligencia artificial que se desarrollan en innumerables headquarters corporativos o laboratorios universitarios del mundo. Como toda neurona, nuestra principal función en ese tinglado es la de generar la mayor cantidad de datos fiables en la menor cantidad de tiempo posible, lo que ya hacemos cada vez que nos conectamos, interactuamos, compartimos, nos auto promovemos o dramatizamos en Internet. No importa qué tan trivial o insignificante nos parezca nuestra aportación: de todo se aprende, y las máquinas sabrán diferenciar la paja del gorgojo.

Por supuesto, el Deep Learning trasciende a la interacción máquina-humano y pretende dos cosas fundamentales: la facilitación del auto-upgrade (concepto que implica que las máquinas se reparen o se actualicen a sí mismas sin intervención humana) y el desarrollo de máquinas que aprendan sin haber sido programadas previamente (lo que significaría, dando un vuelco significativo a nuestra paradoja inicial, máquinas que se auto desarrollen respondiendo a necesidades percibidas).

Un avance tal quizás podría borrar la brecha entre las Inteligencias Artificiales aplicadas y las generales, en tanto toda IA estaría en la posibilidad de adaptarse a las circunstancias y cambiar en virtud de los retos que enfrenta en el momento. Esta re-programación, seguramente, podría eventualmente traducirse en una re- construcción a nivel hardware, lo que dotaría a la máquina de una adaptabilidad sin obstáculos aparentes. ¿Está adaptabilidad constituiría albedrío maquinal, como lo insinuábamos anteriormente? Esa pregunta después la analizaremos.

Una nota al calce: representa una total ironía que mientras la tecnología se dirige hacia la realidad de máquinas que aprenden, el cabildeo de las compañías y las legislaciones tienden cada vez más a cerrar el camino para que los humanos aprendamos de las máquinas y que, en general, nos beneficiemos del conocimiento profundo de la tecnología. La reciente inclusión de mayores restricciones en torno al Manejo de Derechos Digitales en la legislación de copyright europea sienta un precedente muy negativo para los procesos de apropiación y fiscalización de la tecnología. Y, hoy por hoy, esos procesos son de la más profunda importancia.


Nota:
1 Ray Kurzweil en la Revista Time, Diciembre 19, 2014. Cita en http://www.kurzweilai. net/dont-fear-artificial-intelligence-by-raykurzweil. Ray Kurzweil es uno de los nombres más socorridos en la actualidad en lo que se refiere a avance tecnológico y futurología.

Sus análisis suelen ser muy optimistas, lo que le ha acarreado fuertes críticas de otros analistas como, por ejemplo, Stephen Hawking.

También te puede interesar