domingo, 7 de diciembre de 2008

Pyrobot + OLPC: Robot Telepresencia en 5 lineas

Amigos aquí tenemos el desarrollo de un proyecto grupal del curso de inteligencia artificial. Evadiendo el uso de Microsoft Robotics que consume muchos recursos de la computadora... Por un desarrollo mucho mas minimalista pero eficiente creando secuencias de desplazamiento y administración de la webcam remotamente para crear un robot telepresencia :D

Usando la OLPC, python, ssh y el irobot create sin unidad de procesamiento de datos, conectado el irobot con la pc y enviando las imagenes por una interfaz web :) Claro todos sobre un hermoso GNU/linux :).

Véanlo ustedes mismos:



Los compas del proyecto: Eliazar, Jaunes... los chicos que se quedaron haciendo sus labores hackeriles el día sabado 6 de diciembre en lugar de ir a la fiesta de la facultad adyacente donde la cerveza costaba 2 soles.

12 comentarios:

Unknown dijo...

exelente iniciativa, bien!!

saludos,

Zajnóstiko dijo...

No sabía que Eleazar estaba en el Proyecto, pensé que estaba en otros totalmente diferentes.

Oye, pero está chévere lo que has hecho. Ojalá yo pudiera mover el fuckin' robot :S

Anónimo dijo...

donde compraste el robot ???

unimauro dijo...

Bueno la nota nace que en el curso de inteligencia artificial el profesor se prestó un robot llamado irobot de la gente de microsoft Perú create el cual solo tiene algunos sensores como el infrarojo, golpes, bluetooth. No costa de unidad de procesamiento osea depende de una pc para procesar ordenes y mandar bytes a sus motores... Pero sucede que el profe quieren que utilicen un software llamado Microsoft Robotics...
Es muy interesante ese software pero es realmente pesado y a comparación de python que no es visual pero es mucho mas eficiente para hacer lo que se debe.
Así que solo agregue algunas cosas y los testeamos ahora con telepresencia para ver lo que hace el robot en ese momento :D

PD: Eliazar es el documentado .. bueno debe serlo :D te aseguro Zajnótiko q python es sencillo ... digamos si sabes java python con los ojos cerrados

Anónimo dijo...

así que quieren que sea visual...
No se podrá con Etoys?

¿dónde me bajo el código fuente? desde hace añares me estoy jugando con robots caseros con servomotores y nitinol, desde una salida paralela(impresora), me sería interesante el poder pasar info directo de un XO a una máquina que luego pasaría los comandos al robot, pero solía programar en Pascal, me agradaría pasarme a Python.

Anónimo dijo...

Tienen que hacer este video mas marquetero.
El proyecto es muy interesante, pero hagan una mejor filmación breve, directa y con comentarios acertados de las capacidades del robot.

Este es el medio para publicarlo, pero háganlo puntual.
Felicitaciones.

J.

Anónimo dijo...

Que bueno es ver gente que trabaja y que no se la pasa discutiendo o hablando noma. Felicitaciones

Jorge Valverde-Rebaza dijo...

Felicitaciones mauro :D es una gran iniciativa aplicar la teoría de un tema tan amplio como la Inteligencia Artificial y sobre todo obtener resultados tan buenos (Y) y considerando varios aspectos como la complejidad computacional, excelente (Y)...este proy tiene para mucho :D

Anónimo dijo...

hola!, muy buena idea, sabes parece que mandas las imágenes una por una... podrían hacer algo en tiempo real contratando un servidor de streamming en influxis y podrían lograr una especie de videochat andante, con sonido y todo, usando flash... un saludo!

Anónimo dijo...

Realmente un buen trabajo, ya en si da hasta envidia saber que llegaron a desarrollar tal nivel.. (algo Sprite)..
Les deseo más exitos y sigan evolucionando más...

Elizabeth dijo...

Si se PUEDE!!!

unimauro dijo...

Muchas gracias Colegas.... :D Voy a colocar un manualito pasito por pasito ... que en verdad queria hacerlo pero el profesor del curso me lo dejo en visperas de navidad sino posiblemente jale el curso plop!!!