Sistemas interactivos con Visión artificial: Taller de programación C++ openFrameworks

 

 

El deseo de depositar en las máquinas funciones físicas y cognitivas similares a las humanas puede rastrearse más allá de la edad media y verse aún hoy actualizado en las tecnologías de visión artificial, capaces de percibir, interpretar y digitalizar sujetos y objetos del mundo físico. Este curso investiga de modo teórico y experimental el potencial creativo que ofrece la visión artificial para la creación de obras interactivas y la investigación en performatividad corporal en ambientes de realidad virtual y aumentada.

Partiremos del estudio de la relación entre cuerpos, máquinas y performatividad, abarcando referentes en el pensamiento fenomenológico, materialista y posthumanista, de las ciencias cognitivas y la interacción humano-ordenador, y las nuevas concepciones filosóficas de lo natural y lo artificial, el ser, la presencia, la inmersión sensorial y los límites del cuerpo digital. Programaremos en lenguaje C++ usando openFrameworks orientados a desarrollar aplicaciones encargadas de adquirir y procesar datos de videocámaras y sensores tipo Kinect v1, v2 y Leap Motion, siendo capaces de detectar gestos faciales y movimientos corporales para el control de eventos audiovisuales en tiempo real.

Los participantes diseñarán experiencias interactivas que permita la participación simultánea de varios usuarios interactuando con el sistema utilizando su cuerpo y gestos de un modo transparente y natural. Construirán prototipos de sistemas interactivos formando grupos mixtos de programadores novatos y experimentados, diseñadores, teóricos y artistas performáticos, finalizando en una muestra y valoración de los resultados.

Dirigido a: Interesados en artes performáticas, audiovisual en directo, instalación y diseño escenográfico, diseño de vestuario, música, publicidad, televisión. Desarrolladores de 3D, realidad virtual y aumentada. Investigadores en educación, psicología y ciencias cognitivas.

Objetivos:
– Estudio de la filosofía del cuerpo digital y la estética de la obra de arte interactiva.
– Capacidades para analizar estética y tecnológicamente sistemas interactivos complejos.
– Habilidades de programación con especialización en visión artificial y machine learning utilizando el lenguaje C++ y OpenFrameworks.
– Diseñar y construir un prototipo de sistema interactivo controlado con gestos y movimientos del cuerpo en directo.

Requerimientos: El workshop está orientado a gente con poca o ninguna experiencia en programación C++ / openFrameworks. Solo es necesario asistir con un ordenador portátil. Se invita a los participantes a traer iniciativas de proyectos para ser desarrollados durante el curso.

Contenidos del curso:
– Estudios de la evolución en la relación entre cuerpo, máquinas y performatividad, recorriendo referencias históricas desde el siglo XV, la idea de la obra de arte total, la fenomenología y la cognición con el cuerpo, hasta los paradigmas actuales de realidad virtual, percepción artificial y sistemas inmersivos.
Análisis del pensamiento de Birringer, Virilio, Deleuze, Laurel, Haraway, Merleau-Ponty, Braidotti, Papert, y otros.
– Arqueología de la visión computarizada y el aprendizaje automático de las máquinas (Machine Learning). Dispositivos, técnicas y algoritmos fundamentales, y sus principales áreas de utilización. Estudios sobre interactividad. Métodos de diseño de experiencia interactiva basados en el cuerpo y el espacio tecnológicamente aumentados.
-Análisis técnico de una instalación interactiva: dimensionamiento, disposición de luces, cámaras, sensores y sistemas audiovisuales. Visión general de software y hardware para capturar imágenes y para controlar múltiples proyectores sincronizados.
– Programación en C++ orientada a la visión artificial. Captura de imágenes, operaciones pixel a pixel y los principales algoritmos de análisis y predicción. Procesamiento avanzado de imágenes en tiempo real: detección de colores, movimiento, contornos, rostros, reconocimiento de patrones usando la librería OpenCV.
-Métodos para adquirir y procesar datos de sensores Kinect V1, Kinect V2 y Leap Motion. Interpretación de datos, detección de usuarios, movimientos y contornos, esqueletos, mapas de profundidad. Scanning 3D de objetos y personas usando Kinect.
-Controlar sonidos, gráficos 3D, y shaders OpenGL en tiempo real mediante gestos y movimiento del cuerpo. Interacción con redes tipo mesh 2D/3D, estructuras de Voronoi, triangulación Delaunay, y con sistemas de partículas avanzados usando simulación de gravedad, fuerzas de atracción, repulsión, ondas, ecuaciones navier-stokes para fluidos 2d.
-Control Audiovisual mediante gestos y movimientos del cuerpo: secuencias de imágenes, reproducción y manipulación de películas y samples de audio. Aplicación de técnicas VJ/DJ, sampling y síntesis audio vídeo sincronizado al movimiento del cuerpo.
-Importar y exportar archivos XML, JSON, OBJ, STL. Instalaciones en red: Conexiones de red via OSC Open Sound Control o MIDI, Syphon.
-Introducción a conceptos de redes neuronales artificiales y a técnicas de Machine Learning con usos interactivos o en tiempo real para interpretación de patrones, gestos faciales o movimientos del cuerpo entero y otros datos en tiempo real.

Duración: 24 horas

Fechas: 2, 3, 4, 5, 9, 10, 11, 12 julio 2018

Horario: 18:30 – 21:30

Matrícula: €200

A cargo de: Libertar.io Laboratorio de educación en arte, tecnología y filosofía
www.libertar.io
info(at)libertar.io

Álvaro Pastor es Arquitecto MSc en Sistemas Cognitivos y Medios Interactivos, investigador en sistemas interactivos y realidad virtual. Ha trabajado en VirtualSense, SPECS Universidad Pompeu Fabra, 010.bio, Artificial Cognition Barcelona, Libertar.io.

Categorias: Formación |

Uso de cookies: Utilizamos cookies en este sitio web para mejorar su experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies. ACEPTAR

Aviso de cookies