Si además quieres enviarnos un Artículo para el Blog y redes sociales, pulsa el siguiente botón:
Como ya estoy de medio vacaciones, pero a la vez no tengo demasiados medios técnicos, me dedico a recopilar datos y a procesarlos como puedo en mi cabecilla, para poder hacer cosas en verano.
Como sabeis estoy con el tema del Bluetooth... a falta de hacer algunas pruebas con otro ordenador, el tema del TouchPad... necesito más medios que mi portatil... y... ahora viene el proyecto guapi guapi... Visión artificial con una simple webcam, entonces aqui vienen mis preguntas y aclaraciones:
·Sé que es posible, porque si no me equivoco Golfus Hispanicus lo emplea, asi como otros proyectos como los de esta chiquita tan maja: Mavis
·¿Cómo se empieza en este mundito?
·¿Qué librerías usais para obtener imágenes de la webcam?
·¿Qué librerías usais para procesar la imagen?
·¿Es imprescindible programar el sistema en C?
·¿Tenemos algun proyecto de ejemplo?
Yo estoy comenzando con la librería WebCam.dll, pero me temo que es muy incompleta, y además consume demasiados recursos comparándolo con el proyecto de Mavis. Aun así, tengo un programa hecho que lo único que tiene es un botón, con el que al pulsarlo, se copia la imágen de la webcam en un control PictureBox... me imagino que es un primer paso en este mundo, y que me quedan miles de caminos que recorrer, pero esta librería no sé si da mucho más de si, de modo que me gustaría que alguno que haya trabajado con esto me eche un cablecillo.
Seguiré informando. Muchas gracias por la ayuda.
Ángel
Hola a todos, soy nuevo en ARDE, y buscando sobre el tema de vision artificial he llegado a este hilo, donde veo que habeis trabajado un montón sobre el tema y habeis avanzado mucho.
He visto que muchos os inclinais por desarrollar sobre PC, y muchos otros no, debido principalmente a temas de movilidad de vuestros robots.
Yo, personalmente me inclino por trabajar sobre PC, porque como alguien apuntaba en un comentario (de las 41 paginas de este hilo), es relativamente sencillo conectar una cámara USB a un PC. Los temas de interfacing y drivers están practicamente resueltos con todo lo que existe actualmente.
Mi idea inicial, y base de mi proyecto es trabajar sobre PC, con Sistema Operativo Linux. Cualquier Linux podría ser válido en principio, pero me inclino por Ubuntu de momento. Mas que nada por la facilidad de actualizarlo, bajar librerias, su interfaz sencillo, etc...
Esto, de momento, hasta que encuentre algún impedimento al respecto con él. Creo que está bastante bien documentado, y los foros de usuarios ( http://ubuntuforums.org/ ) resuelven hasta el momento cualquier duda que me ha surgido (veremos más adelante).
Sobre la duda de que webcams están soportadas o cuales no, como digo, en los foros de usuarios Ubuntu es facil encontrar respuestas a casi todas las posibles compatibilidades de webcams.
Existe, en cualquier, caso un compendio de drivers creados para Linux, que manejan muchas de las camaras comerciales que podemos encontrar:
http://mxhaard.free.fr/spca5xx.html
Donde podeis consultar la cámara que querais utilizar antes, casi, de comprarla.
Y por supuesto, otras que no están ahí y que los fabricantes o bien otros usuarios/programadores de Linux han creado drivers.
Por supuesto, de momento, el lenguaje de programación que bajaro es C, C++ . Evidentemente en Linux los compiladores son gratuitos y relativamente fáciles de manejar.
Y la libreria con la que iniciaré las pruebas será OpenCV (que tambien se comenta en este hilo): http://www.intel.com/technology/computing/opencv/
En cualquiera de los casos, he encontrado algunos comentarios/preguntas que me parecen muy, muy interesantes y básicos a la hora de plantearnos un robot, y que me gustaría reescribir aquí para pasar a consultaros algunas dudas :
- ¿ Que queremos que haga nuestro robot con la vision artificial con la que le vamos a dotar ?
Es imprescindible saber donde queremos llegar, para trabajar en una linea en concreto, de la visión artificial en este caso.
Mi pregunta para los que leeis esto y estais involucrados en algún proyecto actual o pasado:
¿ Para qué habeis dotado o quereis dotar a vuestro robot de visión artificial ? ¿ Que tarea le quereis asignar a vuestro robot para llegar a plantearos la V.A. ?
Y si alguno lo habeis tenido claro : ¿ cómo lo habeis hecho ?
- Y esto, más que nada, como pregunta-reflexión filosófica al foro, por si podeis iluminarme/nos a los que estamos en proceso de crear...(que por cierto creo que tambien se comenta de soslayo en este hilo):
Dado que, desde mi punto de vista, la plataforma quizá más secilla es el PC, ¿ creeis que sería interesante trabajar sobre un nuevo aspecto que podriamos denominar "Problematica de dotar de movilidad/alimentación a una plataforma PC"?
Entiendo que algunas opciones para posibles soluciones podrían pasar por utilizar motherboards mini-ATX o nano-ATX que también están comentadas. Pero, con todo y con eso, quedan abiertas dudas sobre la alimentación, aligerar pesos en placas/baterias/interfaces, etc.. y no he visto ningún hilo dedicado a "plataformas PC moviles".
Si existe alguno, ¿ podriais apuntarme cuales ?
Muchas gracias a todos por vuestro tiempo y saludos.
Sphinx, sobre el tema de movilidad del robot ARDE va ha hacer un taller en la CampusBot llamado PCBot para dotar a un portátil de movilidad e implementarle algunas funciones de visión artificial (seguir un color por ejemplo).
S2
Ranganok Schahzaman
Gracias por el comentario Ranganok.
Intentaré seguir ese evento, porque me interesa bastante.
Sphinx, bienvenido al maravilloso mundo de la VA!
Yo no soy experto en el tema ni mucho menos, aunque he desarrollado algunas cosillas:
Te voy a responder rapidamente a los que preguntas sobre VA.
yo la utilizo de un modo indirecto en mi Robot TupperBot. La cámarra está fija en el PC desde donde controlo, y lo que hago es mover el robot haciendole signos con la mano... es muy entretenido, aunque algo complicado de manejar...
Gracias por tu respuesta Mif.
Me parece una buena idea lo de utilizar gestos para controlar al robot. Me imagino que será algo así como lo de la Playstation2 con la Eyetoy, ¿ no ? Supongo que te habrá llevado mucho curro.
Me encantaría ver algún video del robot en funcionamiento.
He visto el video de tu TupperBot en tu web controlado por voz y me ha encantado. La voz que has elegido en el sintetizador + la música, quedan muy de ciencia-ficción... Muy chulo!
Ambas ideas me parecen muy interesantes, puesto que mi proyecto va encaminado principalmente a la interacción robot-humano.
En cualquier caso, pretendo desarrollarlo sobre linux, para que todo el proyecto sea realizado con software libre.
Espero poder mostrar algo pronto...
Saludos.