MOUNTAIN
VIEW, California — A mitad de la década de 1990, Douglas Eck trabajaba
como programador de bases de datos en Albuquerque y también probaba
suerte como músico. Después de pasar todo el día programando dentro de
un laboratorio del Departamento de Energía, se subía al escenario en un
pequeño bar local, donde interpretaba lo que él define como “bluegrass
con influencia de punk” o “Johnny Rotten mezclado con Johnny Cash”.
Pero lo
que realmente quería hacer era unir sus días con sus noches y construir
máquinas que pudieran escribir sus propias canciones. “Mi único
objetivo en la vida era mezclar inteligencia artificial con música”,
dijo Eck.
Se
trataba de una ambición ingenua. Se inscribió como estudiante de
posgrado en la Universidad de Indiana, en Bloomington, no muy lejos de
donde creció, y le contó su idea a Douglas Hofstadter, científico
cognitivista que escribió el libro ganador del Premio Pulitzer sobre las
mentes y las máquinas Gödel, Escher, Bach: An Eternal Golden Braid.
Hofstadter lo rechazó, e insistió sobre el hecho de que incluso las
técnicas de inteligencia artificial más recientes eran demasiado
primitivas. Sin embargo, al paso de dos décadas, Eck aún tenía esa idea
en mente, y la inteligencia artificial terminó por ponerse al día con
sus ambiciones.
La
primavera pasada, después de algunos años de haber entrado como
investigador a Google, Eck presentó la misma idea que le había ofrecido a
Hofstadter hace tantos años. El resultado fue el Proyecto Magenta, un
equipo de investigadores en Google que le enseñan a las máquinas a crear
su propia música
y también otras formas de arte, como bosquejos, videos y chistes. Con
su imperio de teléfonos inteligentes, aplicaciones y servicios de
internet, Google está dentro del negocio de la comunicación, y Eck
considera que Magenta es una extensión natural de su trabajo.
“Se
trata de crear nuevos canales para que la gente se comunique”, dijo
durante una entrevista reciente dentro del pequeño edificio de dos
plantas que funciona como la sede principal de investigación de
inteligencia artificial de Google.
El
proyecto es parte de los crecientes esfuerzos para generar arte a
través de un conjunto de técnicas de inteligencia artificial que han
madurado recientemente. Se llaman redes neurales profundas, estos
sistemas matemáticos complejos permiten que las máquinas aprendan
comportamientos específicos al analizar grandes cantidades de datos. Al
observar patrones comunes en millones de fotografías de bicicletas, por
ejemplo, una red neural puede aprender a reconocer una bicicleta. Así es
como Facebook reconoce rostros en fotografías en línea, cómo los
teléfonos con sistema Android reconocen órdenes en voz alta y cómo
Microsoft Skype traduce de una lengua a otra. Sin embargo, estos
sistemas complejos también pueden crear arte. Al analizar un conjunto de
canciones, por ejemplo, pueden aprender a crear sonidos similares.
Eck
dice que estos sistemas por lo menos ya se están acercando al punto
—aún muy, muy lejano— en que una máquina pueda crear al instante una
nueva canción, o quizá billones, de los Beatles, cada una con un sonido
muy similar al de la música que los Beatles grabaron, pero también un
poco distinto. No obstante, esa finalidad —que puede ser tanto una
manera de crear arte como de minarlo— no es su objetivo. Hay muchos
otros caminos que explorar más allá de la simple imitación. La idea
final no es remplazar artistas, sino darles herramientas que les
permitan crear de maneras totalmente nuevas.
En
la década de 1990, en aquel bar en Nuevo México, Eck combinaba Johnny
Rotten con Johnny Cash. Ahora, está construyendo software que hace lo
mismo. Al usar redes neurales, él y su equipo están creando sonidos
híbridos con instrumentos muy distintos —por ejemplo, un fagot y un
clavicordio— y producen instrumentos capaces de producir sonidos que
nunca nadie ha escuchado.
Durante
siglos, los directores de orquesta han puesto capas de instrumentos una
sobre otra. Pero esto es distinto. En lugar de sobreponer sonidos, Eck y
su equipo los combinan para formar algo que no existía antes, y crean
nuevas maneras en que un artista puede trabajar. “Estamos haciendo la
siguiente cámara de cine”, dijo Eck. “Estamos haciendo la próxima
guitarra eléctrica”.
En
2015, otro equipo de investigadores dentro de Google creó DeepDream,
una herramienta que utiliza redes neurales para generar imágenes de
paisajes impactantes y alucinógenas a partir de fotografías ya
existentes, lo que ha dado luz a un nuevo arte dentro y fuera de Google.
Si la herramienta analiza una fotografía de un perro y encuentra un
pedacito de pelaje que vagamente parezca un ojo, lo aumentará un poco y
repetirá el proceso. El resultado es un perro cubierto con un remolino
de ojos.
Al mismo tiempo, varios artistas —como el famoso artista multimedia y de performance
Trevor Paglen o el menos conocido Adam Ferris— están explorando redes
neurales de otras maneras. En enero, Paglen se presentó en una antigua
bodega en San Francisco; exploró la ética de la visión computarizada a
través de redes neurales que pueden monitorear cómo lucimos y nos
movemos. Mientras los miembros del Kronos Quartet, de estilo
vanguardista, tocaban sobre el escenario, las redes neurales analizaban
sus expresiones en tiempo real y adivinaban sus emociones.
Las
herramientas son nuevas, pero no lo es la actitud. Allison Parrish, una
profesora de la Universidad de Nueva York que construye programas que
generan poesía, señala que los artistas han usado computadoras para
generar arte desde la década de 1950. “De la misma manera en que Jackson
Pollock inventó una nueva manera de pintar al abrir una lata de pintura
y salpicarla sobre el lienzo a sus pies”, dijo, “estas técnicas
computacionales ofrecen a los artistas un rango de posibilidades más
grande”.
Fuente: https://www.nytimes.com/es/2017/08/17/inteligencia-artificial-arte-musica-google-magenta-nsynth/?em_pos=small&emc=edit_bn_20170817&nl=boletin&nl_art=3&nlid=81830818&ref=headline&te=1
No hay comentarios:
Publicar un comentario