GeoProcess Lab

Haciendo usos de los dispositivos móviles, los servicios en la nube y aplicaciones móviles, logramos un mapeo colaborativo, ágil y eficiente; ¿Quieren saber cómo?


Un Sistema de Información Geográfica SIG es un conjunto de herramientas diseñadas, construidas e integradas para la captura, almacenamiento, edición, procesamiento, análisis  y visualización de datos georreferenciados que representan el mundo real, ofreciéndonos un mejor conocimiento  del territorio y facilitándonos la gestión, planificación y toma de decisiones oportunas en pro del desarrollo .


Para  que un SIG sea realmente efectivo  todos sus procesos deben estar integrados. Sin embargo, lo que vemos comúnmente es que la mayoría de los software SIG no funcionan como un sistema integrado, la recolección de datos se ha desvinculado totalmente del conjunto de funcionalidades que conforman el sistema, de la misma forma que la publicación rápida de la información, para la consulta de los usuarios finales.


Actualmente encontramos:

  1. Por una parte, que los métodos para recolectar datos siguen siendo tradicionales e involucran alta probabilidad de error y baja confiabilidad de los datos.
  2. De forma aislada, encontramos software con algoritmos robustos para el procesamiento de datos.
  3. Y por otro camino, hallamos  herramientas de publicación de datos geográficos en la web, con deficiencias en el procesamiento y están orientadas a publicar información ya consolidada.


Claro está, hemos observado en el mercado Geográfico  herramientas o software que integran todas las partes de un SIG, pero, hasta el momento tienen un precio elevado, lo que no permite que puedan ser adoptadas por la mayoría de proyectos en Latinoamérica.


Esta disociación entre herramientas que conforman un SIG, genera procesos lentos  que a su vez son los causantes de una mayor probabilidad de propagación de errores y mayores costos para los proyectos.


Para superar estos aprietos los profesionales latinoamericanos que generamos o hacemos uso de la Información geográfica debemos implementar nuevas pautas como el SIG Colaborativo, lo hemos denominado como una nueva corriente que permite cerrar la brecha entre la recolección de datos georreferenciados y la publicación de la información geográfica.


Este concepto es revolucionario y tecnológico ya que integra dispositivos móviles para la captura de datos, aplicaciones móviles y servicios en la nube. Para que la consolidación de información en una base de datos geográfica sea en tiempo real, evitando la propagación de errores a través de un control de calidad inmediato. Permitiendo el seguimiento diario u horario de los censos, inventarios, validaciones o inspecciones de campo.


¿Cuál es la infraestructura que se requiere para  un SIG Colaborativo?

 

  1. Conocimiento del fenómeno objeto de estudio.
  2. Contar con tecnología móvil (teléfonos inteligentes o tabletas) y un equipo de trabajo con dispositivos móviles.
  3. Acceso a internet.
  4. Una plataforma simple, intuitiva y económica para recolectar nuestros datos de manera estructurada desde nuestros dispositivos móviles.
  5. Una plataforma web que permita procesar, visualizar descargar y realizar control de calidad de los datos tomados en campo.


Con facilidad, de esta receta para un mapeo, ágil, eficiente y colaborativo, contaremos con los ítems 1, 2 y 3, dado que están casi que implícitos en la era digital en la cual estamos inmersos. La buena noticia es que no debemos tener mayor preocupación por los dos ítems 4 y 5, tan solo debemos adquirir GisData.

¿Qué es GisData?


Plataforma web y móvil que facilita la gestión y administración de datos georreferenciados. GisData ayuda a los usuarios de la información geográfica que requieren recolectar, almacenar, manipular, analizar y publicar información geográfica; a evitar altos costos y tiempos prolongados en la ejecución de un proyecto, a la vez que  minimiza la cadena de errores.

GisData está disponible  para los dispositivos móviles con sistema operativo android 5.0 en adelante, pueden descargarla desde  Google Play de forma gratuita Clic Aquí 

Una vez la descarguen, encontrarán una aplicación móvil intuitiva con un buen soporte para iniciar la actividad de recolección de datos.

 

¿Cómo iniciar un mapeo colaborativo con GisData?

 

  • Descargar la aplicación GisData en nuestro dispositivo móvil desde Google Play. 

 

  • Registrarnos en la aplicación con nuestro correo electrónico y activar nuestra cuenta de GisData.

 

  • Conocer sobre el objeto de estudio.

 

Ahora solo debemos seguir los siguientes cuatro pasos.

1. Construir formulario personalizado 

2. Invitar colaboradore

3. Recolectar y sincronizar datos 

4. Descargar datos

Esperamos que esta aplicación sea útil para la gestión de datos georreferenciados en sus proyectos.


Para mayor información consulten: www.gis-data.co


Si tienen alguna duda de la aplicación escriban a: soporte@gis-data.co

 

Tendencias en Mapeo Ágil y Eficiente

Las nuevas tendencias de mapeo significan un cambio de paradigma, que permitirá cambiar la forma costosa y tradicional de realizar mapas, donde los recursos financieros destinados para la generación de información geográfica y la toma de decisiones, cambiarán porcentualmente su distribución, desencadenando por fin un avance en el atraso cartográfico presente en Latinoamérica.

Hoy en día en múltiples revistas científicas de enfoque geográfico se hace referencia a una nueva forma o paradigma de acceder, representar y conceptualizar la realidad; a partir de la aplicación de la informática y las tecnologías para producir soluciones creativas dinámicas y rápidas con el fin de tomar decisiones acertadas en el territorio. A este nuevo paradigma se le ha denominado geo-tecnologías [1].

El Doctor Miguel González de la universidad de Guadalajara México, dice que en la actualidad es casi imposible reconocer un proceso que no esté directa o indirectamente relacionado con el desarrollo de las tecnologías de la información y las comunicaciones [1]. Estamos de acuerdo con que todos los profesionales latinoamericanos que generamos o hacemos uso de la Información Geográfica, pretendemos que el proceso de representación cartográfica este estrechamente ligado con el desarrollo tecnológico.

Pero, ¿Qué ocurre con la cartografía en Latinoamericana?

 

Lamentablemente encontramos que las zonas urbanas de nuestra región cuentan con una desactualización del orden de 2 a 10 años, en zonas rurales el rango aumenta de 30 a 40 años y en algunos lugares hay carencia total de datos geográficos.

Para reforzar este argumento, mostramos tres situaciones, preocupaciones y retos de los países Latinoamericanos.

  1. Un repositorio bibliográfico de la Universidad de las Fuerzas Armadas ESPE, expone que la realidad catastral de la mayoría de los municipios del Ecuador es la desactualización o ausencia de sus bases cartográficas y alfanuméricas [2].
  2. Los trabajos de investigación de la Universidad del Pacifico, advierten que el desarrollo de la cartografía en el Perú ha tenido una evolución lenta (la culminación de la cartografía 1/100 000 tomó 77 años). Y que los productos y los servicios brindados actualmente por el IGN del Perú tienen aplicación en los proyectos de ordenamiento territorial, el desarrollo de infraestructura regional, defensa del medio ambiente y desastres naturales, por lo que se hace necesaria la generación de cartografía básica a escala 1/25 000 como un gran proyecto nacional [3].
  3. En Colombia, de los 995 municipios que administra el Instituto Geográfico Agustín Codazzi aproximadamente 500 no tienen actualizada su cartografía, ni siquiera en las zonas urbanas [4].

 

Estos ejemplos son una fiel radiografía de lo que ocurre con la Cartografía en Latinoamérica, además hemos encontrado que el proceso de representación geográfica se ve afectado positiva y negativamente por muchos factores, destacamos tres de ellos: geográficos, técnicos y económicos.

Dentro de los factores geográficos prevalecen aspectos como el relieve y el clima:

  1. El relieve o topografía del terreno, afecta en términos de accesibilidad, generando mayores costos de la campaña de recolección de datos.
  2. El clima, facilita la existencia de zonas donde la nubosidad no permite contar con imágenes de satélite con una frecuencia aceptable que permita una verdadera actualización cartográfica.

  

En cuanto a los factores técnicos, encontramos que la innovación ha significado una carrera en la que los departamentos de cartografía de muchos de los países de la región han quedado rezagados o por el contrario han invertido en tecnología y no se observa un avance en la obtención de mayor cantidad de datos, análisis y publicación de los mismos.

Esto puede deberse a tres aspectos puntualmente:

  1. Escasez de recursos humanos calificados.
  2. La implementación de nuevas tecnologías solo es exitosa si va acompañada de la capacitación del personal para integrar estos desarrollos con éxito en las labores cotidianas.
  3. Carencia de equilibrio entre las inversiones tecnológicas y los rubros destinados al procesamiento, análisis y publicación de la información geográfica.

Por último, en lo relacionado con el factor económico encontramos uno de los fenómenos más interesantes que se repite en Latinoamérica y es que cuando se cuenta con recursos financieros para la recolección de datos, como todo proyecto estos son limitados. Lo preocupante es la distribución de los recursos.

Se ha podido observar que aproximadamente el 40% de los recursos se destinan a la compra de software licenciados de altísimo costo y mantenimiento anual, software que cuentan con más de 1000 funcionalidades pero que se emplean en el ejercicio entre 5 o 10 funcionalidades como máximo. Normalmente estos softwares requieren un nivel de capacitación media-alta del personal a emplear.

El otro 30% se destina a Hardware o equipos de medición importados desde Europa, USA o Asia (Siendo estas de marca europea o norteamericana). Nadie duda de las bondades de estos equipos, sin embargo bajo la coyuntura actual y las nuevas tendencias de mapeo, hay actividades de recolección o medición que pueden ser reemplazadas con integración tecnológica como veremos más adelante.

 

“El 30% se destina a software propietario, el 40% a equipos de medición o colectores de datos, mientras el porcentaje restante del proyecto se emplea para el resto de actividades como campañas de campo, digitación de datos, análisis, dirección, administración, publicación entre otras tareas”

Por ejemplo, hoy en día encontramos tecnología disruptiva que con creatividad y conocimiento puede generarse métodos y modelos de trabajo innovador:

 

  • Revolución de los dispositivos móviles: Los dispositivos móviles con sistemas operativos Android o IOS, cuentan con diversos sensores tales como acelerómetros, GPS, giroscopios, magnetómetro, sensores de proximidad, sensor de luz, podómetro, entre otros. Estos sensores junto a plataformas abiertas para desarrollo permiten crear un sinfín de aplicativos para una diversidad de amplias necesidades [5].

 

  • Sensores independientes: Plataformas comerciales en la web o empresas desarrolladoras de sensores emplean el “e-marketing” para adquirir en cualquier parte del mundo infinidad de sensores, tales como: sensores de temperatura, humedad relativa, giroscopios, sensores de proximidad, acelerómetros, GPS con frecuencias L1, L2 y RTK, entre muchísimos más.

 

  • Sistema embebido: El internet y las tendencias de desarrollo colaborativo han permitido que se multipliquen soluciones a bajo costo, por ejemplo integrar cualquier cantidad de sensores independientes a sistemas como Raspberrys o Arduinos, han otorgado soluciones que hasta hace unos años solo era posible con tecnología propietaria a la cual había que invertir altos recursos financieros.

 

  • DRONES o Vehículos Aéreos No Tripulados: Esta tendencia supone un quiebre en la historia de la obtención de datos geográficos, para el caso del trópico contar con una imagen satélite supone esperar temporadas seca y libre de nube, mientras que con esta tecnología en cuestión de horas podemos contar con una imagen orto-rectificada y lista para generar cartografía actualizada.

 

Finalmente se estima que las entidades involucradas en la obtención de datos, que llegasen a emplear las nuevas tendencias de mapeo ágil y eficiente disminuirán:

  1. En un 50% el tiempo de recolección de datos.
  2. En un 60% el costo de equipo de recolección de datos.
  3. En un 40% el tiempo de procesar datos para obtener información relevante para tomar decisiones de forma ágil y acertada.
  4. En un 40% los costos del método tradicional de captura de datos georreferenciados.

 

Si desea conocer una herramienta que le ayudará a disminuir sus costos en un proyecto de recolección, muestreo e inspección, visítenos en www.gis-data.co y descarga esta App gratuitamente  Aquí

 

 

Palabras Claves:

#gisdata, #muestreo, #inspeccion, #android, #gis, #collect, #inventario, #censo

 

Fuentes:

1] http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S0864-34662013000400013

2] http://www.catastro.meh.es/documentos/publicaciones/ct/ct75/3.pdf

3] http://repositorio.up.edu.pe/bitstream/handle/11354/1203/BaldovinoAntonio2016.pdf?sequence=1

4] http://noticias.igac.gov.co/con-imagenes-de-alta-resolucion-igac-espera-realizar-la-actualizacion-de-cartografia-de-detalle-en-municipios-de-zonas-urbanas-pequenas/

5] https://www.sintaxisweb.es/sensores-dispositivos-moviles/


Precisión, tiempo y costos

¿Elaborar un inventario arbóreo con GisData podría ser más preciso que con métodos tradicionales? ¿En qué porcentaje se reducen los tiempos? ¿En cuánto se reducen los costos?

 

Elaborar inventarios arbóreos con métodos tradicionales supone tanto en campo como en oficina una odisea. En una primera etapa se despliegan comisiones conformadas hasta por cuatro personas para caracterizar una especie, los datos son consignados en papel y la georreferenciación en muchas ocasiones se ve afectada por pérdidas de señal de los equipos GPS. En una segunda etapa se deben digitar todos los datos tomados en papel y enlazar con las fotografías tomadas a cada árbol y finalmente descargar y post-procesar los datos GPS para dar coordenada geográfica precisa a cada registro.

Los tiempos han cambiado, el uso de los dispositivos móviles para la recolección de datos rompe con los paradigmas de los métodos tradicionales que emplean equipos GPS costosos, software de procesamiento complejo y número significativo de personal especializado; buscando siempre reducción de costos y garantía de precisión.

Planteamos dos hipótesis:

Hipótesis 1:  Hacer inventarios arbóreos con GisData reduce los tiempos y costos.
Hipótesis 2:  Hacer inventarios arbóreos con GisData conlleva pérdida de precisión.

El caso experimental

En el mes de mayo del año 2016 se realizó el inventario georreferenciado de las especies arbóreas de la zona urbana del municipio de Tuluá utilizando GisData. Como antecedente, se consultó a profesionales que participaron el el censo arbóreo de la zona urbana del municipio de Cali (2015) elaborado mediante método tradicional. Aunque las extensiones de las ciudades y el número de árboles presentes en ellas difieren, se comparó el rendimiento diario de la  comisión de campo y los costos de ejecutar el inventario en Tuluá utilizando el método de Cali.

 

Método Convencional

El inventario arbóreo de la ciudad de Cali se efectuó desplegando en campo comisiones conformadas por cuatro personas: ingeniero forestal (1), tecnólogo forestal (1), tecnólogo SIG (1) y operario (1); que se encargaron de caracterizar cada especie, consignando sus atributos en un formulario de papel y fotografía en archivo digital. La georreferenciación de cada árbol se realizó con equipo GPS robusto para obtener precisiones de (+/-) 50 cm. En oficina se conformó un gabinete de técnicos que digitaron los datos y enlazaron una fotografía a cada registro; profesionales especializados en descarga y post-procesamiento de las coordenadas GPS, estructuración de bases de datos geográficas y representación cartográfica en la web.

 

GisData

El inventario arbóreo de la ciudad de Tuluá se ejecutó desplegando en campo comisiones conformadas por dos personas: ingeniero o tecnólogo forestal (1) y operario(1); que equipados con tabletas en las cuales se había instalado previamente la aplicación móvil GisData, se encargaron de caracterizar cada especie, consignando sus atributos en el formulario digital inteligente en el cual se incorporó un diccionario de datos, diseñado específicamente para agilizar la actividad de recolección. La georreferenciación de cada árbol se efectuó identificando su copa en una ortoimagen aérea desplegada en la APP.  A medio día un integrante de cada comisión  habilitaba los datos móviles en cada tableta y sincronizaba en la nube los registros recolectados. En oficina sólo se  necesitó un coordinador quien hacía en tiempo real control de calidad de los datos, seguimiento de las comisiones de campo y descarga de datos consultando la plataforma web GisData.

 

Diferencias en Precisión

El descubrimiento es sorprendente, con GisData se obtuvo mayor precisión geográfica, contrario a la hipótesis que no alcanzaría las precisiones de la georreferenciación con GPS del método tradicional.

Los siguientes son valores de las precisiones geográficas asociadas a la localización de cada árbol en los dos censos:

 

Método convencional

(Inventario arbóreo Cali)

GisData

(Inventario arbóreo Tuluá)

+/- 50 cm                                                    

+/- 30 cm

(asociado a la precisión de la ortoimagen aérea)

Diferencias en Tiempo

En el inventario arbóreo de Tuluá se redujo el tiempo de entrega de resultados finales, de forma comparativa entre el método GisData respecto al método tradicional se tiene que:

  • Con GisData móvil, el tiempo de recolección de datos en campo, se redujo al 50%.
  • Con GisData web, el tiempo de trabajo en oficina: edición de registros, post-proceso de datos gps, estructuración de base de datos geográfica  y representación espacial, se redujo al 20%.
  • Comparando las horas de captura y procesamiento de imágenes aéreas + labor de recolección de datos en campo +  trabajo de oficina empleando GisData versus la actividad de recolección de datos en campo + posicionamiento GPS + trabajo de oficina empleando el método convencional, GisData requirió tan sólo el 35% del tiempo.

Diferencias en calidad y cantidad de datos

El inventario arbóreo de Cali elaborado con el método tradicional registró varios inconvenientes que afectaron la integridad de los datos, en términos de:

  • Precisión geográfica: En los casos donde hubo pérdida de señal de los equipos GPS, se afectó la precisión geográfica de la ubicación de los árboles, quedando desplazados, sobre vías y manzanas.
  • Confiabilidad de los datos: Al digitar las características de cada árbol censado, se encontraron inconsistencias de los atributos capturados en campo, en otros casos no se entendía la letra del operario de campo, por tanto se digitaba  lo que entendía el técnico en oficina. 
  • Completitud de los datos: Los operarios olvidaron llenar atributos en los formularios de papel. 

Estos inconvenientes fueron totalmente subsanados con GisData.

Otro hallazgo interesante es que con GisData se obtuvo aproximadamente el doble de rendimiento en campo comparado con el método tradicional.

 

Método convencional

(Inventario arbóreo Cali

GisData

(Inventario arbóreo Tuluá)

80 árboles censados al día/ 1 comisión   150 árboles censados al día/ 1 comisión

Diferencias en costos

El costo del censo arbóreo empleando el método tradicional es mayor, dado que requiere más personal calificado en campo y oficina, personal técnico para la tarea de digitación y enlace de fotografías; alquiler o compra de equipos GPS submétricos y pago de licencias de software para la gestión de datos geográficos (postproceso y representación espacial). En tanto con GisData se reduce la comisión de campo a dos personas, no se requiere personal especializado en oficina, no se emplean equipos GPS y software de gestión de datos geográficos.

Parece increíble pero el costo del censo arbóreo con GisData disminuyó en un 40% en comparación con el método tradicional.

Ahora es posible reducir la comisión de campo a un par de personas, registrar hasta 200 árboles diarios por comisión, recolectar la mayor cantidad de características posibles de cada especie arbórea sin temor a demorarse más, despreocuparse de la consolidación de los datos, ahorrarse un 40% del costo total del proyecto y terminar el trabajo e informe final en tiempo record a un precio absurdamente bajo.

Muchas son las empresas o entidades gubernamentales que requieren hacer inventarios o censos arbóreos referenciados geográficamente, con exactitud posicional sub-métrica o centimétrica. Además, de acuerdo a ciertos protocolos o normativas esta información debe estar anidada con atributos que caractericen la especie arbórea, tales como altura, estado fitosanitario, riesgo, nombre común y científico, contar con registro fotográfico; y consolidada en una base de datos geográfica.

El requerimiento de georreferenciación se ha ido solventando empleando equipos GPS de doble frecuencia (Equipos muy costosos) y personal en campo especializado en operarlos, además de una base GPS para realizar correcciones. Adicionalmente para corregir y pos-procesar las señales adquiridas por los equipos se emplean software licenciados costosos y un personal con conocimiento en corrección de datos GPS. Aunque este es el método adecuado, no resuelve el posicionamiento de árboles que se encuentran junto a edificios altos o arboles con copas muy grandes que dificultan la señal y aumentan el tiempo de una campaña de campo.

Otro aspecto relevante son las características o atributos de las especies, que son comúnmente recolectados a través de formularios en papel. El papel trae muchos inconvenientes, como por ejemplo, el riesgo a mojarse, a perder la información, el costo de las impresiones y el peso de llevarlo a una campaña de campo.

Finalmente la consolidación de la base de datos y presentación de informes finales, termina siendo el proceso más demorado y engorroso. Una de las dificultades más comunes entre tantas, es que los digitadores de la información interpreten mal las observaciones consignadas en el papel del operador de campo. Una vez la información es digitalizada se encuentran inconsistencias y de nuevo se tiene que rectificar en campo.

Por eso se ha creado GisDATA una plataforma web y móvil, la cual ayuda a empresas de servicios públicos que requieren censos e inventarios con georreferenciación submétrica a reducir los altos costos y aumentar la eficiencia en la obtención y análisis de datos. A diferencia de emplear equipos GPS costosos, software de procesamiento complejo y número significativo de personal especializado.

Somos la única APP en el mercado que permite georreferenciación submétrica con dispositivos móviles con base en orto-imágenes aéreas (Drones, Helicópteros o Avioneta), diseño de formularios especializados que incluye diccionario de datos, trabajo offline y monitoreo en tiempo real.

Nuestra plataforma web permite a los coordinadores de los censos o inventarios revisar en tiempo real los avances de la captura de datos en campo, generar reportes estadísticos, analizar la información y descargarla en formatos geográficos estándares (CSV para Excel, KML para Google Earth, Shapefile para software SIG) reduciendo el tiempo de revisión y control, facilitando el calidad de los datos.

Nuestra plataforma móvil permite a los operadores de campo capturar en un formulario digital datos georreferenciados con orto-foto de forma ágil y sencilla. Evitando la perdida e inconsistencia de datos, revisita a campo y aumentando la productividad diaria.

 

Si quieres saber más sobre GisDATA:

 www.gis-data.co

contacto@gis-data.co

¿Es posible disminuir costos a la mitad, incluso menos, manteniendo los mismos propósitos?

Aunque en los últimos años el costo de las imágenes satelitales ha disminuido dada la competencia, el costo de los softwares especializados se mantiene.

Aún persiste en nuestras regiones latinoamericanas la resistencia de institutos, empresas públicas y privadas a emplear la teledetección como técnica que permite monitorear, evaluar y analizar la superficie terrestre y la atmósfera. Básicamente parte de la resistencia puede deberse a cierto desconocimiento de las bondades de esta técnica, pero la razón más poderosa son los costos que implica contar con una infraestructura física e intelectual para este fin.

Lamentablemente no todo profesional con competencias para los Sistemas de Información Geográfica es apto para el procesamiento de imágenes. Sumado a esto, en el mercado existen múltiples satélites, tomando imágenes y cada sensor con características y modelos matemáticos diferentes. Encontramos en los últimos años soluciones comerciales con tamaños de pixel por debajo del metro, desde 4 hasta 10 bandas en distintas porciones del espectro electromagnético, entre otras características.

Así como existen múltiples sensores, también existe una variedad de excelentes softwares. Estos softwares comerciales robustos contienen entre 500 a 1500 funciones, entre las cuales se encuentran, procesamiento para imágenes de radar, 10 o 15 funciones diferentes para clasificación supervisada y no supervisada, módulos para procesamientos fotogramétricos y diversas funciones con distintos enfoques adicionales.

Cada imagen para teledetección tiene un peso en Bytes significativo, además del software que también consume recursos importantes de la capacidad de un equipo de cómputo.

Si consideramos los anteriores aspectos, podríamos estimar los siguientes costos:

  • Software comercial entre ($15000 a $25000 USD) + mantenimiento anual.
  • Experto en Teledetección costo Anual ($30000 a $48000 USD).
  • Equipo de cómputo robusto ($4000 a $7500 USD).
  • Imagen Satelital 100km2 ($3000 a $5500 USD).

 

¿Cómo ahorrar costos?

Lo primero que tendría que hacer es preguntarse: A qué escala voy a trabajar y qué producto voy a generar. Al responder estas inquietudes selecciono el sensor adecuado y el método de trabajo.

Un ejemplo puede ser: Si un instituto requiere generar mapas temáticos de usos y cobertura de la tierra, quizá comprar un software de 1000 funciones y tan solo utilizar 4 o 5 no sea lo más acertado. Que podría hacer entonces:

  • Contratar el experto consultor que diseñe el método y el manual de procesos.
  • Adquirir un software especializado en clasificación de imágenes o usar herramientas libres como QGis que en sus últimas versiones cuenta con los plugin para este tipo de procesos (con el tiempo mejorará la estabilidad).
  • Quizá si mi escala es una 1:100.000 pueda utilizar imágenes libres como Landsat 8, sino debo tener en cuenta que a mayor detalle más costoso es el km2, por lo tanto puedo ahorrar unos dólares si defino claramente mi escala.

 

Un ejemplo más es el de una hacienda agroindustrial que requiere estimar variables biofísicas para agricultura de precisión. La solución estaría en:

  • Contratar el experto consultor que diseñe el método y el manual de procesos.
  • Contratar el desarrollo de una App de escritorio para corrección espectral de la imagen y generación de los índices de vegetación.
  • Quizá no sea adecuado trabajar en este caso con una imagen satelital dada las condiciones de nubosidad en el trópico lo cual no permite periodicidad, pero la solución podría ser adquirir los servicios de toma de imágenes con un Vehículo Aéreo No Tripulado que incluya un sensor de infrarrojo.
  • Otra forma de ahorro es comprar el VANT (Vehículo Aéreo No Tripulado) con sensor infrarrojo y contratar los servicios de procesamiento de imágenes y generación de la cartografía (en este caso se ahorraría el costo de los servicios de toma de imagen, el desarrollo de la app y las licencias de software de fotogrametría digital).

 

Finalmente el secreto del ahorro está en una buena asesoría independiente, que brinde alternativa en métodos y tecnología.

Palabras Clave: Teledetección, Sensores Remotos, VANT, Drones, App

En esta entrada presentamos un video que explica de forma simple e interactiva ¿Qué es Cloud Hosting? y sus beneficios. Nuestro objetivo es familiarizar a los profesionales con los servicios en la nube y la utilidad en su empresa.

Encontramos una interesante cifra que lo convencerá de iniciar una investigación y eventual transformación digital de su negocio. En el 2016, tres de cada cuatro proyectos nuevos se ejecutarán sobre infraestructura Cloud, con el firme objetivo de agilizar la toma de decisiones y minimizar los tiempos de producción y de llegada al mercado. Asimismo, se incrementará la tendencia de las compañías por la transformación digital, lo que significa trasladar su negocio principal a la nube beneficiándose de las múltiples ventajas que brinda en cuanto a seguridad, eficiencia, movilidad y escalabilidad [1].

 Fuentes:

[1] http://www.eleconomista.es/tecnologia/noticias/7210172/12/15/Las-cinco-tendencias-que-van-a-marcar-el-servicio-de-Cloud-Computing-en-2016.html

[2] http://meridacloudhosting.net

siteco

Los avances en geotecnologías prometen soluciones innovadoras para la recolección de información geográfica en tiempo record, uno de los mayores referentes es el sistema multisensor RoadScanner4. En esta entrada identificamos las características y beneficios de esta tecnología.

SITECOINFORMATICA fabrico para Amberg Technologies AG en Suiza el sistema de cartografía móvil RoadScanner4, combinación de hardware y software innovador y especializado para el monitoreo y gestión de infraestructura vial y aeroportuaria. RoadScanner4 es considerado un sistema multisensor dado que permite combinar sensores de escaneo láser (LIDAR) de distintos fabricantes, además posee un sistema de cámara esférica para aplicaciones de alta precisión y exactitudes posicionales centimétricas [1].

El sistema RoadScanner4 provisto con escáneres  Zoller & Frolich Profiler 9012, un sistema de navegación inercial iXBlue Landins y cámara Point Grey’s LadyBug5 para la captura de imágenes esféricas a color, fue empleado en la isla japonesa Okinawa donde se mapearon 120 kilómetros de infraestructura vial. La recolección de datos, incluyendo instalación de equipos en el vehículo, se realizó en dos días y dos días adicionales  para procesamiento de datos que arrojaron una exactitud de 2 cm [2]. 

Fuentes:

[1]http://www.sitecoinf.it/index.php/en/news-eng/516-siteco-delivers-its-road scanner4-mms-to-amberg-technologies

[2]http://www.gim-international.com/content/news/siteco-road-scanner4-for-asco-japan

 

 

 

 

 

midas_ok

 

Las geotecnologías avanzan a pasos agigantados, llegando a exceder los límites de lo que las mentes más curiosas consideran posible. Una prueba de ello es el sistema de mapeo 360° MIDAS. En esta entrada describimos sus principales características.

Lead’Air fabricante de los productos Trac’Air, presenta al mercado un sistema de mapeo 360° sin precedentes. El innovador Midas marcará nuevos estándares en la industria de la foto aérea oblicua. Brindando un 30% de ahorro en solapamiento de líneas de vuelo, cobertura completa y el doble de imágenes oblicuas que sus antecesores [1].

El sistema MIDAS posee 9 cámaras, 1 cámara vertical, 8 cámaras oblicuas espaciadas a 45°, las cuales no dejan puntos angulares descubiertos. MIDAS captura 450 megapíxeles por segundo, disparando a intervalos de 1 segundo. Sus antecesores solo disponían de 4 cámaras oblicuas espaciadas a 90° para observar adelante, atrás, derecha e izquierda [2].

La configuración técnica de las 8 cámaras oblicuas de MIDAS permite ahorro en el tiempo de vuelo de la aeronave que lo porta, dado que la cobertura ha sido mejorada, requiriendo menor solapamiento lateral, que se traduce en menor cantidad de líneas de vuelo.  Este es el sistema de captura más rico del mercado con objetivos ambiciosos (mayor precisión y mejores datos) para aplicaciones de inspección virtuales, realidad virtual y modelación 3D.

 Fuentes: 

[1] http://trackair.com/index.php/octoblique-midas-3/

[2] http://www.gim-international.com/content/news/lead-air-launches-360-degree-coverage-survey-camera

 

Imágenes Satelitales

La misión Sentinel-2 es una constelación de vigilancia terrestre de dos satélites que proporcionan imágenes ópticas de alta resolución y que pretende dar continuidad a la posición actual y las misiones Landsat. La misión proporciona una cobertura global de la superficie terrestre de la Tierra cada 10 días con un satélite y 5 días con 2 satélites, por lo que los datos de gran utilidad en los estudios en curso [1]. Lo interesante de esta misión es su enfoque especial hacia la agricultura y su interoperabilidad con el programa Landsat, dado que cuando se lance el segundo satélite Sentinel-2B tendrá una frecuencia de revisita de 5 dias. Su compatibilidad con landsat permitirá continuar realizando programas de análisis e investigaciones y a través de un convenio con GEOGLAM [2]. Nos permitimos presentar a groso modo sus características:

Fecha de lanzamiento: Sentinel-2A – 23 de junio 2015 Sentinel-2B – previsto para mediados de 2016

Vida útil operativa: 7 años

Misión Objetivos:

  • Observación de la Tierra, incluyendo: La vegetación, el suelo y la cubierta de agua, vías navegables y las zonas costeras
  • Uso de la tierra y los mapas de detección de cambios
  • Prestar apoyo en la generación de la ocupación del suelo
  • Apoyo de alivio de desastres
  • Vigilancia del cambio climático

 

Misión órbita: Orbit Altura: 786 kilometros Tipo Orbit: Sun-síncrona Inclinación: 98.5o Repita el ciclo: 10 días con un satélite y 5 días con 2 satélites Carga útil: MSI (multispectral Imager) Franja y resolución espacial: 290 kilómetros – 10 m, 20 m y 60 m de resolución espacial Configuración: La nave está equipada con una serie de paneles solares desplegables y las dimensiones de la nave son: 3,4 mx 1,8 mx 2,35 m con un peso en el momento del lanzamiento de 1100 kg. Lanzamiento de vehículo: Vega cohete (Sentinel-2A) Vehículo Rockot (Sentinel-2B) operador interino: ESA Procesamiento de datos:

  • Nivel 1 – A – correcciones radiométricas
  • Nivel 1 – B – correcciones geométricas
  • Nivel 2 – A – detección Nube
  • Nivel 2 – B – correcciones atmosféricas
  • Nivel 2 – C – las variables geofísicas algoritmos de recuperación
  • Nivel 3 – Simulación de correcciones en la nube

 

La compañía INDRA gestionará y operará el centro principal de los satélites Sentinel-2, la compañía ha cerrado un acuerdo con la Agencia Espacial Europea (ESA) para acoger el Centro Principal de Procesamiento y Archivo de imágenes de la misión Sentinel-2 en sus instalaciones de San Fernando de Henares, en Madrid, y responsabilizarse de su operación. El equipo especializado en observación de la Tierra de Indra se responsabilizará de la gestión y operación completa del centro, incluyendo el procesamiento de las imágenes y su distribución a los usuarios; Indra también se encargará del almacenamiento de datos a largo plazo. Cada año se archivarán hasta 1.000 terabytes de nuevas imágenes. La compañía almacenará esta información en su avanzado Centro de Procesamiento de Datos de San Fernando de Henares, que actualmente cuenta con 5.000 metros cuadrados y ofrece un porcentaje de servicio sin interrupciones del 99,98% [3]. Teniendo en cuenta todos estos elementos, permite ser optimistas al futuro frente al rezago cartográfico que padece Latinoamérica, sumándole la nueva ola de la fotogrametría impulsada por el desarrollo de los drones con aplicaciones cartográficas.

 

Fuentes:

[1] https://earth.esa.int/web/guest/missions/esa-operational-eo-missions/sentinel-2

[2] http://www.esa-sen2agri.org/SitePages/Home.aspx

[3] http://www.indracompany.com/prensa/actual-indra/edition/2013/12/indra-gestionara-y-operara-el-centro-principal-de-los-satelites-