Logo es.androidermagazine.com
Logo es.androidermagazine.com

Android le da ojos, oídos y un sentido de dirección a un robot lego nxt

Anonim

Mientras que algunos de nosotros usamos nuestros teléfonos para comunicarnos o jugar juegos increíbles, hay quienes llevan la ciencia y el tiempo libre al siguiente nivel. Mike Partain es una de esas personas. Utilizando un kit de robótica Lego NXT listo para usar, un Motorola Droid y un montón de ingenio e inteligencia, Mike agregó sensores que le faltaban al kit de robótica: cámara, GPS y brújula. Aproveche el descanso para leer sobre él en las propias palabras de Mike, un enlace al código fuente (¡ gracias especiales Mike!) Y un par de videos que ven diferentes vistas desde el ojo sin parpadear del Droid.

Nos pusimos en contacto con Mike para obtener una explicación sobre este proyecto, porque, francamente, necesitábamos que las cosas se redujeran a un nivel que pudiéramos entender un poco mejor. Fue lo suficientemente útil como para darnos la información, que está aquí en su totalidad.

Uno de mis deseos de todos los tiempos era tener mi propio robot. Y ahora, Lego ha hecho que jugar con robots sea práctico con los kits de Lego NXT Robot. Estos kits siguen el espíritu de Legos en que son fáciles, económicos y divertidos de ensamblar en múltiples variedades de robots con ruedas y andadores. Los kits incluyen un cerebro que controla tres motores y hasta 4 sensores. Pero lo que faltaba era una cámara remota, una brújula y un GPS. Ingrese el Motorola Droid, o la mayoría de los dispositivos Android para el caso. Dado que el teléfono Android contiene estos sensores avanzados, y está basado en Java y código abierto, pensé que sería simple "conectar" el Droid a mi computadora y monitorear sus sensores al lado de mi software Lego Robots. No estaba muy lejos. Me costó unos días resolver el código necesario para decodificar la imagen de vista previa de la cámara, pero todo lo demás fue bastante sencillo. Al final, tuve una gran sonrisa en mi rostro cuando mi robot Lego se aventuró a través de la gran alfombra de la sala de estar, controlándolo de forma remota desde solo la imagen que podía ver en la pantalla de mi computadora. No es el robot perdido en el espacio, pero no obstante, puede abrir muchas mentes jóvenes sobre cómo puede ser su futuro.

Debo señalar que el software no es de calidad "terminada". Es una prueba de concepto, y funciona. Puedo o no mejorarlo o completarlo, por lo que lo estoy haciendo disponible sin licencia ni restricciones (o promesas).

Hay 3 piezas de software;

El código Java de Android (droidSense). Este código es un servidor TCP simple que proporciona datos de imagen sin codificar sin procesar (desde la vista previa de la cámara, datos del sensor y datos GPS a cualquier cliente.

El programa independiente.Net (AssClient) que se comunica con el servidor Java Droid, decodifica los datos de la imagen en bruto y muestra la imagen, el sensor sin procesar y los datos del GPS.

Un servicio de estudio de Microsoft Robotics (AndroidCameraService) que proporciona una imagen genérica de WebCam para uso de un programa MRDS visual o estándar.

La pieza de Java se ejecuta en el Droid (no hay interfaz de usuario, solo muestra la superficie de vista previa mientras se ejecuta, use 'forzar detención' para matarlo), y luego ejecuta cualquiera de las piezas en la PC (no he intentado ejecutar ambas al mismo tiempo, pero supongo que podría funcionar).

Salsa impresionante allí mismo. Aquí están los videos que Mike incluye:

Enlace de Youtube para StandAlone.wmv

Enlace de YouTube para AndroidCameraService.wmv

Y finalmente, si tiene los conocimientos y el tiempo, aquí hay un enlace al código fuente que Mike tuvo la amabilidad de proporcionar. Gracias de nuevo Mike, ¡esta es una de las cosas más geniales!