Taller de sistemas interactivos y visión artificial con C++ / OpenFrameworks

El deseo de depositar en las máquinas funciones físicas y cognitivas similares a las humanas puede rastrearse más allá de la edad media y verse aún hoy actualizado en las tecnologías de visión artificial, capaces de percibir, interpretar y digitalizar sujetos y objetos del mundo físico. Este curso investiga de modo teórico y experimental el potencial creativo que ofrece la visión artificial para la creación de obras interactivas y la investigación en performatividad corporal en ambientes de realidad virtual y aumentada.

Partiremos del estudio de la relación entre cuerpos, máquinas y performatividad, abarcando referentes en el pensamiento fenomenológico, materialista y posthumanista, de las ciencias cognitivas y la interacción humano-ordenador, y las nuevas concepciones filosóficas de lo natural y lo artificial, el ser, la presencia, la inmersión sensorial y los límites del cuerpo digital. Programaremos en lenguaje C++ usando openFrameworks orientados a desarrollar aplicaciones encargadas de adquirir y procesar datos de videocámaras y sensores tipo Kinect v1, v2 y Leap Motion, siendo capaces de detectar gestos faciales y movimientos corporales para el control de eventos audiovisuales en tiempo real. Exploraremos técnicas fundamentales de Machine Learning orientadas a interpretar coreografías, gestos y otros datos en tiempo real.

Los participantes diseñarán experiencias interactivas que permita la participación simultánea de varios usuarios interactuando con el sistema utilizando su cuerpo y gestos de un modo transparente y natural. Construirán prototipos de sistemas interactivos formando grupos donde confluyan programadores novatos y experimentados, diseñadores, teóricos y artistas performáticos, finalizando en una muestra y valoración de los resultados.

Dirigido a: Interesados artes performáticas, audiovisual en directo, diseño escenográfico y de vestuario, música, publicidad, televisión, educación, psicología y ciencias cognitivas.

Objetivos:
Conocer referentes de la filosofía del cuerpo digital y analizar las posibilidades técnicas y estéticas de los sistemas interactivos.
Desarrollar habilidades de programación con especialización en visión artificial y machine learning utilizando el lenguaje C++ y OpenFrameworks.
Diseñar y construir un prototipo de sistema interactivo controlado en directo con gestos y movimientos del cuerpo.

Requerimientos: El curso está dirigido a participantes con conocimientos básicos de programación. Es recomendable participar del curso introductorio a C++/openFrameworks realizado en Hangar en setiembre del 2017.
Solo es necesario asistir con un ordenador portátil. Se invita a los participantes a traer iniciativas de proyectos específicos para ser desarrollados durante el curso.

Contenidos del curso:

– Estudios de la evolución en la relación entre cuerpo, máquinas y performatividad, recorriendo referencias históricas desde el siglo XV, la idea de la obra de arte total, la fenomenología y la cognición con el cuerpo, hasta los paradigmas actuales de realidad virtual, percepción artificial y sistemas inmersivos.
Análisis del pensamiento de Johannes Birringer, Paul Virilio, Gilles Deleuze, Brenda Laurel, Donna Haraway, Merleau-Ponty, Félix Guattari, Rosi Braidotti, Seymour Papert, y otros.

– Arqueología de la visión computarizada y el aprendizaje de las máquinas Machine Learning. Dispositivos, técnicas y algoritmos fundamentales, y sus principales áreas de utilización. Estudios sobre interactividad. Métodos de diseño de experiencia interactiva basados en el cuerpo y el espacio tecnológicamente aumentados.

-Análisis técnico de una instalación interactiva: dimensionamiento, disposición de luces, cámaras, sensores y sistemas audiovisuales. Visión general de software y hardware para capturar imágenes y para controlar múltiples proyectores sincronizados.

– Programación en C++ orientada a la visión artificial. Captura de imágenes, operaciones pixel a pixel y los principales algoritmos de análisis y predicción. Procesamiento avanzado de imágenes en tiempo real: detección de colores, movimiento, contornos, rostros, reconocimiento de patrones usando la librería OpenCV.

-Métodos para adquirir y procesar datos de sensores Kinect V1, Kinect V2 y Leap Motion. Interpretación de datos, detección de usuarios, movimientos y contornos, esqueletos, mapas de profundidad. Scanning 3D de objetos y personas usando Kinect.

-Controlar sonidos, gráficos 3D, y shaders OpenGL en tiempo real mediante gestos y movimiento del cuerpo. Interacción con redes tipo mesh 2D/3D, estructuras de Voronoi, triangulación Delaunay, y con sistemas de partículas avanzados usando simulación de gravedad, fuerzas de atracción, repulsión, ondas, ecuaciones navier-stokes para fluidos 2d.

-Control Audiovisual mediante gestos y movimientos del cuerpo: secuencias de imágenes, reproducción y manipulación de películas y samples de audio. Aplicación de técnicas VJ/DJ, sampling y síntesis audio vídeo sincronizado al movimiento del cuerpo.

-Importar y exportar archivos XML, JSON, OBJ, STL. Instalaciones en red: Conexiones de red via OSC Open Sound Control o MIDI, Syphon.

-Introducción a conceptos de redes neuronales artificiales y a técnicas de Machine Learning con usos interactivos o en tiempo real para interpretación de patrones, gestos faciales o movimientos del cuerpo entero y otros datos en tiempo real.

Duración: 24 horas
Fechas: 3, 5, 10, 17, 19, 24, 26, 31 de octubre 2017
Horario: 18:30-21:30
Matrícula: 180€

A cargo de:
Libertar.io : Laboratorio de educación en arte, tecnología y filosofía
http://www.libertar.io
info@libertar.io

Belén Agurto es artista – programadora, investigadora en filosofía de la tecnología, pensamiento computacional y estética digital. Título en Comunicación audiovisual (UL, Lima) y Máster en Estudios comparativos de literatura, arte y pensamiento (UPF, Barcelona), su investigación se centra en conocer las relaciones entre tecnología, estética y política construyendo proyectos de realidad virtual, arte en internet, performance y cuerpo tecnológicamente aumentado, la digitalización y fabricación digital. Desde el 2015 dirige el programa formativo de tecnología y estética de Libertar.io en Hangar.org.

Álvaro Pastor es arquitecto y artista electrónico, MSc Sistemas cognitivos y medios interactivos (UPF, Barcelona), es investigador en sistemas interactivos, realidad virtual y en sistemas de percepción e inteligencia artificial. Entre 2006-14 i+d audiovisual en tiempo real y sistemas interactivos en el medialab La Casa Ida (Lima) Entre 2003-6 i+d en visualización y simulación 3D en Artificial.org. Desde 2014 ha trabajado en desarrollo de entornos virtuales multi sensoriales en 010.bio y SPECS-UPF (Barcelona). Co dirige el programa formativo de tecnología y estética de Libertar.io en Hangar.org.

Guardar

Guardar

Uso de cookies: Utilizamos cookies en este sitio web para mejorar su experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies. ACEPTAR

Aviso de cookies