Si además quieres enviarnos un Artículo para el Blog y redes sociales, pulsa el siguiente botón:
Vereis, el otro dia me dieron de promocion una webcam gratis y he pensado en usarla para un proyectiyo de robotica. Es una webcam usb de las mas simplonas que puedas encontrar pero he estado pensando en su funcionamiento. Si no me equivoco El usb tiene dos pines de alimentacion, uno de entrada y otro de salida, no? Pues me gustaria saber como se usan estos pines para controlar la recepcion de imagenes. ¿Se usa algun tipo de Pulso de longitud variable para solicitar la informacion de cada pixel? y esta informacion ¿es devuelta en RGB?
Otra opción para sensores de imagen es usar el chip de un ratón óptico, algunos dan acceso por i2c al array de imagen, el problema es la baja resolución,que son monocromos y que necesitan bastante iluminación.Para hacer alguna prueba es el método mas sencillo para usar con un Pic.
Aqui pueden ver algo http://robotica.udl.cat/matlab/mousesensor/adns.htm
Una serie de apuntes y dudas:
si preguntamos cuanta información visual necesitamos (matriz,profundidad,velocidad) para tomar decisiones en un robot la respuesta seguramente será cuanta más mejor pero me imagino que también puede responderse con otra pregunta ¿que tipo de decisiones?
No es lo mismo, no chocar con un obstaculo que ir hacia una pelota de color o recoger una botella de cerveza de una mesa. Todas necesitan capturas diferentes,procesados diferentes y toma de decisiones diferentes.
Por eso no es necesario una imagen en color para tener la dirección en un ratón p.j. pero si es muy necesario para segmentar la imagen en una captura de campo.
Por otro lado,una cosa es coger un CMOS y preprocesar la imagen( B/W, histogramas,filtrados,etc) y otra distinta tomar la decisión de no chocar con algún obstáculo delante nuestro y ya no te digo esquivarlo.
El preprocesado de imagen en tiempo real está muy estudiado pero lo que aún queda campo es en la toma de decisiones. (ya nos metemos en I.A.)
¿alguien conoce algún sistema de visión para robots experimentales pero de bajo coste y abierto? Sería interesante que desde este foro indagaramos este tema para nuestros robots y hacernos algo a medida si es con PIC,dsPIC mejor. aunque los sistemas FPGA son los que comúnmente se utilizan en visión industrial.
para los que entienden en arquitecturas ¿ cual sería la mejor manera de abordar el problema de la captura de la imagen en memoria intermedia y prepocesado posterior en otra memoria para luego "decidir" con otra unidad ? ¿demasiado lio para lo que tiene que hacer? tenemos que pensar que usando una cutre camara USB de 352x288x3(24 bits) tenemos ya 300Kb. y a 25 fps ya nos vamos a 7,5 Mb./sg. ¿cual es vuestra opinión?¿alguna idea?