fbpx

Expresate

Si además quieres enviarnos un Artículo para el Blog y redes sociales, pulsa el siguiente botón:

Avisos
Vaciar todo

Visión artificial

467 Respuestas
43 Usuarios
0 Reactions
446.4 K Visitas
mif
Respuestas: 1095
 Mif
Topic starter
(@mif)
Noble Member
Registrado: hace 19 años

Como ya estoy de medio vacaciones, pero a la vez no tengo demasiados medios técnicos, me dedico a recopilar datos y a procesarlos como puedo en mi cabecilla, para poder hacer cosas en verano.

Como sabeis estoy con el tema del Bluetooth... a falta de hacer algunas pruebas con otro ordenador, el tema del TouchPad... necesito más medios que mi portatil... y... ahora viene el proyecto guapi guapi... Visión artificial con una simple webcam, entonces aqui vienen mis preguntas y aclaraciones:
·Sé que es posible, porque si no me equivoco Golfus Hispanicus lo emplea, asi como otros proyectos como los de esta chiquita tan maja: Mavis
·¿Cómo se empieza en este mundito?
·¿Qué librerías usais para obtener imágenes de la webcam?
·¿Qué librerías usais para procesar la imagen?
·¿Es imprescindible programar el sistema en C?
·¿Tenemos algun proyecto de ejemplo?

Yo estoy comenzando con la librería WebCam.dll, pero me temo que es muy incompleta, y además consume demasiados recursos comparándolo con el proyecto de Mavis. Aun así, tengo un programa hecho que lo único que tiene es un botón, con el que al pulsarlo, se copia la imágen de la webcam en un control PictureBox... me imagino que es un primer paso en este mundo, y que me quedan miles de caminos que recorrer, pero esta librería no sé si da mucho más de si, de modo que me gustaría que alguno que haya trabajado con esto me eche un cablecillo.

Seguiré informando. Muchas gracias por la ayuda.
Ángel

Responder
466 respuestas
technik
Respuestas: 287
(@technik)
Reputable Member
Registrado: hace 17 años

Ranganok, me alegra bastante ver este hilo resuciado de nuevo, al final desestime el propeller para el tema de vision artificial. Me parece un chip muy potente para muchos tipos de aplicaciones pero creo que aun asi se queda corto. En realidad el tema de la vision artificial lo estuve probando casi todo con el ordenador pero llego un momento en que decidi que mis robots tenian que ser totalmente autonomos, no es por nada en especial, es que me gustan mas asi. Estoy trabajando las bases de un buen sistema motriz fiable preciso y eficaz. Y para cuando lo acabe estoy planteandome el tema de los ARM o incluso usar un embebed PC... no se, pero el mayor problema que he tenido siempre a la hora de buscar un sistema alternativo de vision artificial ha sido que es muy dificil adaptar una camara a cualquier cosa que no sea un ordenador.

Ya que estamos resucitando esto aprovecho para preguntar si alguien ha intentado algo parecido. ¿alguien ha probado un sistema alternativo de vision artificial?

Responder
TumBos
Respuestas: 158
(@tumbos)
Estimable Member
Registrado: hace 19 años

me alegro de que el hilo vuelva a activarse.

Creo que quien haya "jugado" un poquito con temas de visión llega a un momento que su "robot" precisamente no es autónomo por esa razón. Todos sus componentes realizan su función autonomamente excepto la visión porque no tienen potencia o porque simplemente la manera más facil de conectar y tratar una imagen de una cámara es a traves de un PC.

Si nos vamos a plataformas hardware como MCUCAM los precios son altos asi que busco una plataforma flexible/economica/potente (bueno,bonito y barato :lol:) para ejecutar tanto la captura de la imagen como el preprocesado y ejecución de algoritmos de visión y comunicación con el resto del robot.

Por otro lado, solo la fase de tratamiento de la imagen(preproceso) requiere potencia de cálculo. Luego tenemos que "sacar" conclusiones de las imágenes captadas para "transformarlas" en acciones. Eso requiere aún más potencia de cálculo y de memoria, y aqui es donde la visión artificial está en pañales. Existen algoritmos altamente documentados para este tratamiento pero son "solo" eso, algoritmos que están pensados y optimizados para realizar funciones especificas como por ejemplo, reconocimiento de caras, matriculas, intrusos, etc.
La pregunta que me hago siempre es ¿que potencia de cálculo necesitaría mi robot para realizar su función de visión autónomamente? Bien, esta claro que la "función" del robot no es la misma en un siguelineas que en sumo o que en uno que recorra toda tu casa sabiendo donde ésta en todo momento (navegación global) y sin chocar con nada (navegación local) .
Supongamos que elegimos un siguelineas como "función" del robot. (esta fue la primera opción cuando elegi la "función"por una razón, la resolución de laberintos por visión artificial en tiempo real) ¿que aportaría una visión al robot? está claro que como primera acción sería adelantarse a lo que está por llegar a los sensores de linea lo cual tendría ya una ventaja con respecto a la matriz de sensores tipica de los siguelineas. Resumiendo, si "veo" una linea recta larga metele caña a los motores. Si "veo" una curva frena un poco y no te pases. Pero si veo un cruce ... y en este punto podemos meternos con algoritmos de resolución de laberintos que aún necesitariamos más potencia y memoria. Y al final todo es un suma y sigue.

También he implementado algunos algoritmos en PC (Borland C++ 6)pero sin usar librerias como OpenCV precisamente por si tenia que integrarlo en plataformas "especiales".Así ya de paso se como funciona los algoritmos "por dentro".
He mirado FPGA, ARM, EmbeddedPC y también he mirado Omnivisión como sensor pero no he llegado a ninguna conclusión válida.

Yo también estoy interesado en si alguien ha trabajado ó tiene ideas al respecto de la plataforma hardware autónoma de V.A. sin usar PC.

saludos

P.D. para linuxeros, ¿sabeis de librerias como OpenCV ?

Responder
ranganok
Respuestas: 3875
(@ranganok)
Ardero
Registrado: hace 19 años

TumBos, Tienes documentados esos algoritmos? Tienes links? me interesaría echarles un vistazo.

S2

Ranganok Schahzaman

Responder
eventronic
Respuestas: 47
(@eventronic)
Ardero
Registrado: hace 19 años

Buenas de nuevo

Me alegro de que este hilo se reinicie 😉
Yo pienso que la única forma de obtener resultados aceptables de visión artificial en un robot autónomo, después de volverme loco con otras soluciones, es usar un pc embebido. Yo uso una placa VIA miniATX con un procesador VIA a 1GHz y alimentada toda ella a 12V. Las ventajas son múltiples: puede llevar disco duro, memoria ram por un tubo, permite capturadoras de vídeo o bien cámaras USB, además dispone de puertos serie, salida monitor, salida audio, etc. La puedes usar con un Windows XP rebajado de peso o con Linux.
Incovenientes: el precio, pero si se quiere hacer algo serio, creo que es la solución idónea.

Salu2

Responder
ranganok
Respuestas: 3875
(@ranganok)
Ardero
Registrado: hace 19 años

eventronic, lo malo de esto es que no es un sistema pequeño (ni barato) para lo que yo quiero hacer.

Quizás los nuevos PIC32 (a 80MHz) o un ARM9 200MIPS.

S2

Ranganok Schahzaman

Responder
Página 79 / 94
Compartir: