Archivo | Tecnologias Emergentes RSS feed for this section
10 Jul

La Inteligencia Artificial comenzó como el resultado de la investigación en psicología cognitiva y lógica matemática. Se ha enfocado sobre la explicación del trabajo mental y construcción de algoritmos de solución a problemas de propósito general. Punto de vista que favorece la abstracción y la generalidad.

 

La Inteligencia Artificial es una combinación de la ciencia del computador, fisiología y filosofía, tan general y amplio como eso, es que reúne varios campos (robótica, sistemas expertos, por ejemplo), todos los cuales tienen en común la creación de máquinas que pueden “pensar”. La idea de construir una máquina que pueda ejecutar tareas percibidas como requerimientos de inteligencia humana es un atractivo. Las tareas que han sido estudiadas desde este punto de vista incluyen juegos, traducción de idiomas, comprensión de idiomas, diagnóstico de fallas, robótica, suministro de asesoría experta en diversos temas. Es así como los sistemas de administración de base de datos cada vez más sofisticados, la estructura de datos y el desarrollo de algoritmos de inserción, borrado y locación de datos, así como el intento de crear máquinas capaces de realizar tareas que son pensadas como típicas del ámbito de la inteligencia humana, acuñaron el término Inteligencia Artificial en 1956.

Trabajos teóricos fundamentales fueron el desarrollo de algoritmos matemáticos por Warren McCullock y Walter Pitts, en 1943, necesarios para posibilitar el trabajo de clasificación, o funcionamiento en sentido general, de una red neuronal. En 1949 Donald Hebb desarrolló un algoritmo de aprendizaje para dichas redes neuronales creando, en conjunto con los trabajos de McCullock y Pitts, la escuela creacionista. Esta escuela se considera hoy como el origen de la Inteligencia Artificial, sin embargo se trató poco por muchos años, dando paso al razonamiento simbólico basado en reglas de producción, lo que se conoce como sistemas expertos.

 

Texto original de Monografias.com

Anuncios
10 Jul

La biotecnología consiste simplemente en la utilización de microorganismos así como de células vegetales y animales para producir materiales tales como alimentos, medicamentos y productos químicos útiles a la humanidad.   

Los  científicos actualmente comprenden qué son muchos de estos procesos biológicos y cómo ocurren, lo que les ha permitido desarrollar nuevas técnicas a fin de modificar o copiar algunos de dichos procesos naturales para poder así lograr una variedad mucho más amplia de productos. Algunos, como el queso, son los mismos que se obtenían utilizando la biotecnología tradicional, pero los nuevos métodos son más rápidos, menos costosos y más confiables. Otros, como algunos de los nuevos productos farmacéuticos, ni siquiera se podrían hacer por medio de los métodos más antiguos.

Este proceso de generación de nuevas variedades ha sido muy útil y ha dado lugar a la generación de nuevas variedades que se cultivan hoy en día.”Ahora y en un futuro cercano, los alimentos derivados de la biotecnología proveen mejoras de calidad que, además, incluyen mejor sabor y son más sanos. Las particularidades agronómicas que le fueron insertadas crean valor. El hecho más notable es que las plantas incrementan la producción y reducen la necesidad de otros agregados como pesticidas y herbicidas químicos. La soja, el maíz y el algodón son algunos de nuestros actuales productos enmarcados en los programas de biotecnología que, además de generar mayores rindes, implican menores costos de inversión gracias al control de pestes y malezas. Existen tres ventajas fundamentales respecto de las técnicas convencionales de mejora genética basadas en la hibridación.

Primero, los genes que se van a incorporar pueden ser de cualquier procedencia. Segundo, en la planta mejorada genéticamente se puede introducir un único gen nuevo con lo que se preservan en su descendencia el resto de los genes de la planta original.

Tercero, este proceso de modificación se realiza en mucho menos tiempo. Podemos así modificar propiedades de las plantas de manera más amplia, precisa y rápida que mediante las técnicas clásicas basadas en la hibridación y selección

A nivel básico la biotecnología se puede definir como una técnica que utiliza células vivas, cultivo de tejidos o moléculas derivadas de un organismo como las enzimas para obtener o modificar un producto, mejorar una planta o animal o desarrollar un microorganismo para utilizarlo con un propósito específico.

Según esta definición, la fabricación, entre otros, de pan y cerveza que se basa en el empleo de células de levadura es un proceso biotecnológico.

La diferencia aportada por la biotecnología moderna es que actualmente el hombre no sólo sabe cómo usar las células u organismos que le ofrece la naturaleza, sino que ha aprendido a modificarlos y manipularlos en función de sus necesidades. La biotecnología tal como la conocemos actualmente empezó en los años 50 con el descubrimiento por James Watson y Francis Crick de la estructura de la molécula de ADN* (ácido desoxirribonucleico) que es donde se almacena la información genética (la herencia) en todos los seres vivos.

En contra de lo que pueda parecer, la Biotecnología no es un campo nuevo de actividad empresarial, su desarrollo puede remontarse a varios miles de años atrás cuando el hombre aprendió a producir pan y otros productos como el queso, la cerveza y el vino.

El hombre lleva varios miles de años modificando los vegetales que utiliza como alimento. Por ejemplo, las repollitos de Bruselas, la coliflor y el brócoli son variedades artificiales de la misma planta (aunque no lo parezcan). Lo mismo se puede decir de las decenas de variedades de manzanas, maíz, papas, trigo, entre otros. Los antecedentes salvajes de muchas de estas plantas, cuando existen, son tan poco parecidas que no serían reconocidos como tales por alguien que no fuera experto.

En cuanto a la “mezcla de especies”, el triticale, un híbrido de trigo y centeno, lleva décadas prosperando en terrenos de mala calidad (útiles para centeno, pero no para trigo), pero con algunas buenas propiedades del trigo, lo que lo hace mucho más valioso para alimentación humana.

Sin embargo, la ingeniería genética permite ahora llevar a cabo, en pocos años y de forma controlada, lo que antes podía costar décadas o siglos, o conseguir efectos que sólo estaban en los sueños de los agricultores, pero que eran imposibles con las viejas técnicas de cruce y selección.

La ingeniería genética se utilizó inicialmente (por su alto coste) para producir sustancias de usos farmacéutico, como la insulina, modificando genéticamente microorganismos. Con los posteriores desarrollos, se obtuvieron también enzimas para uso industrial, como la quimosina recombinante, utilizada, al igual que la obtenida de estómagos de terneros jóvenes (su fuente original, el “cuajo”), para elaborar el queso. Posteriormente se han obtenido vegetales (y animales) modificados genéticamente para mejorar sus propiedades.Los productos de la biotecnología están alrededor nuestro. El yogurt, la cerveza, el vino y el queso de nuestra heladera son productos de la biotecnología. Los pickles, el pan, y el vinagre de nuestra cocina también lo son.Cientos de años atrás, la gente fue descubriendo, casi por accidente, cómo hacer uso de los procesos biológicos que ocurren dentro de las células vivientes. Sin entender los procesos, podían ver los resultados. Descubrieron, por ejemplo, que ciertos microorganismos, como las bacterias y los hongos podían producir vinagre, cerveza o vino cuando crecían en grandes tinas. Estos procesos fueron llamados fermentación. A través de prueba y error, aprendieron el control de estos procesos y a producir grandes cantidades de un amplio rango de productos.

Los científicos actualmente comprenden muchos de estos procesos biológicos y cómo estos ocurren. Esto les ha permitido desarrollar nuevas técnicas para alterar o copiar algunos de estos procesos naturales y por lo tanto lograr una amplia variedad de productos. Algunos, como el queso, son los mismos productos hechos utilizando la biotecnología tradicional, pero con los nuevos métodos son más rápidos, económicos y más confiables. Otros, como algunos de los nuevos productos farmacéuticos no pueden ser fabricados con los métodos antiguos.

Muchas definiciones de biotecnología han sido discutidas a lo largo de estos años. Algunas de las que se han mantenido a través de los años son:”Biotecnología significa la aplicación de principios científicos y de ingeniería para el proceso de materiales a través de agentes biológicos para obtener bienes y servicios. Estos principios cubren una amplia variedad de disciplinas pero se basa principalmente en microbiología, bioquímica, genética e ingeniería genética”. OECD 1982, “Biotecnología, Perspectivas y Tendencias Internacionales”.”Biotecnología significa la aplicación de la ciencia y de la ingeniería con el uso directo o indirecto de organismos vivos o partes o productos de organismos vivos en su forma natural o modificada”. Canadian Environmental Protection Act, 1985.


¿Cuáles son los beneficios de la Biotecnología?


La biotecnología ofrece los medios para producir alimentos de mejor calidad, en forma más eficiente y segura para la salud y el medio ambiente. Desde el punto de vista productivo, el uso de estas nuevas tecnologías, permite aumentar la competitividad de países agroexportadores como la Argentina, aumentando los rendimientos, disminuyendo los costos y aumentando la seguridad de la cosecha. Una de las promesas de la biotecnología es generar innovaciones y mejoras en los alimentos conduciendo a prácticas agrícolas más ecológicas, contribuyendo a una agricultura sustentable, que utiliza con respeto los recursos del medio ambiente y sin hipotecar generaciones futuras.

¿Cómo se diferencia la Biotecnología de las Técnicas tradicionales de cruzamiento?


La biotecnología es un método científico de mejoramiento de las cosechas. Durante siglos, los agricultores, panaderos, vinicultores, cerveceros, productores de quesos, etc., han producido híbridos (es decir, mezclado los genes) de diferentes plantas, intentando producir más y mejores alimentos. Mediante la utilización de métodos científicos avanzados, la biotecnología moderna, representa una mejora eficiente de esta práctica de larga data.Las técnicas tradicionales de hibridación mezclaron durante varios años miles y miles de genes y muchas generaciones de plantas con el fin de obtener una característica deseada. La biotecnología acelera este largo proceso permitiendo a los científicos tomar solamente los genes deseados de una planta, logrando de ese modo los resultados deseados en tan sólo una generación.

La biotecnología es una herramienta más segura y eficiente para el mejoramiento de especies respecto de las técnicas tradicionales, puesto que elimina gran parte del azar presente en el mejoramiento tradicional. Por otro lado, la biotecnología moderna es una nueva tecnología, en la medida que puede modificar los atributos de los organismos vivientes mediante la introducción de material genético que ha sido trabajado “in vitro” (fuera del organismo).

Texto original de Casafe.org


Tecnología Forense

10 Jul

Tecnología forense es la aplicación de prácticas científicas dentro del proceso legal, tambien se le conoce como informatica forense.

La Informática forense permite la solución de conflictos tecnológicos relacionados con seguridad informática. Gracias a ella, las empresas obtienen una respuesta a problemas de privacidad, competencia desleal, fraude, robo de información confidencial y/o espionaje industrial surgidos a través de uso indebido de las tecnologías de la información. Mediante sus procedimientos se identifican, aseguran, extraen, analizan y presentan pruebas generadas y guardadas electrónicamente para que puedan ser aceptadas en un proceso legal.

La tecnología forense  puede aplicarse a computadoras para buscar evidencia de documentos o fotografías en discos duros dañados, borrados o alterados, o para analizar la escritura en un documento sospechoso, mientras que la contabilidad forense investiga las transacciones comerciales de una persona o empresa para detectar irregularidades o malos manejos.

Esencialmente esto se traduce en investigadores altamente especializados o criminalistas, que localizan evidencias que sólo proporcionan prueba concluyente al ser sometidas a pruebas en laboratorios ( en el caso de las investigaciones forenses de laboratorio). Parte de la evidencia que hallan a menudo no puede ser vista a simple vista, a veces es hasta más pequeña. La ciencia forense ahora usa de manera rutinaria ADN en delitos seriamente complejos, solucionando muertes a partir de estos bloques estructurales de la vida.  Mientras los criminales han desarrollado maneras cada vez más ingeniosas de quebrantar la ley, las fuerzas policiales han tenido que idear maneras más efectivas para someterlos a la justicia. Incluso cuando pareciera que un criminal desapareció sin dejar rastro, los detectives se percataron hace ya un buen rato que esto simplemente no es cierto. Con cada contacto que establecemos con un lugar, objeto o incluso otra persona, se deja una presencia física. Todos sabemos que las huellas dactilares y las fundas de una bala pueden delatar a un ladrón, pero ¿sabías que las fibras, los cabellos extraviados e incluso hasta el sucio de tus zapatos pueden implicarte en una investigación criminal?. De hecho, casi todo lo que se encuentra en la escena de un crimen puede ser sometido a prueba y usado como evidencia para probar o refutar la presencia de un sospechoso.

La tecnología forense  puede aplicarse a computadoras para buscar evidencia de documentos o fotografías en discos duros dañados, borrados o alterados, o para analizar la escritura en un documento sospechoso, mientras que la contabilidad forense investiga las transacciones comerciales de una persona o empresa para detectar irregularidades o malos manejos.

 

Texto tomado de Cienciforense.cl

Computación en la nube.

10 Jul

La computación en la nube o informática en la nube o nube de conceptos, del inglés Cloud computing, es un paradigma que permite ofrecer servicios de computación a través de Internet.

 

En este tipo de computación todo lo que puede ofrecer un sistema informático se ofrece como servicio, de modo que los usuarios puedan acceder a los servicios disponibles “en la nube de Internet” sin conocimientos (o, al menos sin ser expertos) en la gestión de los recursos que usan. Según el IEEE Computer Society, es un paradigma en el que la información se almacena de manera permanente en servidores de Internet y se envía a cachés temporales de cliente, lo que incluye equipos de escritorio, centros de ocio, portátiles, etc. Esto se debe a que, pese a que las capacidades de los PC han mejorado sustancialmente, gran parte de su potencia se desaprovecha, al ser máquinas de propósito general.[cita requerida]

“Cloud computing” es un nuevo modelo de prestación de servicios de negocio y tecnología, que permite al usuario acceder a un catálogo de servicios estandarizados y responder a las necesidades de su negocio, de forma flexible y adaptativa, en caso de demandas no previsibles o de picos de trabajo, pagando únicamente por el consumo efectuado.

El cambio paradigmático que ofrece computación en nube es que permite aumentar el número de servicios basados en la red. Esto genera beneficios tanto para los proveedores, que pueden ofrecer, de forma más rápida y eficiente, un mayor número de servicios, como para los usuarios que tienen la posibilidad de acceder a ellos, disfrutando de la ‘transparencia’ e inmediatez del sistema y de un modelo de pago por consumo.

Computación en nube consigue aportar estas ventajas, apoyándose sobre una infraestructura tecnológica dinámica que se caracteriza, entre otros factores, por un alto grado de automatización, una rápida movilización de los recursos, una elevada capacidad de adaptación para atender a una demanda variable, así como virtualización avanzada y un precio flexible en función del consumo realizado evitando además el uso fraudulento del software y la piratería.

La computación en nube es un concepto que incorpora el software como servicio, como en la Web 2.0 y otros conceptos recientes, también conocidos como tendencias tecnológicas, que tienen en común el que confían en Internet para satisfacer las necesidades de cómputo de los usuarios.

 

Texto original de Wikipedia.com

Redes de sensores

10 Jul

 

Una red de sensores (del inglés sensor network) es una red de ordenadores pequeñísimos («nodos»), equipados con sensores, que colaboran en una tarea común. Las redes de sensores están formadas por un grupo de sensores con ciertas capacidades sensitivas y de comunicación inalámbrica los cuales permiten formar redes ad hoc sin infraestructura física preestablecida ni administración central. Las redes de sensores es un concepto relativamente nuevo en adquisición y tratamiento de datos con múltiples aplicaciones en distintos campos tales como entornos industriales, domótica, entornos militares, detección ambiental. Esta clase de redes se caracterizan por su facilidad de despliegue y por ser autoconfigurables, pudiendo convertirse en todo momento en emisor, receptor, ofrecer servicios de encaminamiento entre nodos sin visión directa, así como registrar datos referentes a los sensores locales de cada nodo. Otra de sus características es su gestión eficiente de la energía, que les permite obtener una alta tasa de autonomía que las hacen plenamente operativas.

 

La miniaturización de ordenadores creciente dio a luz la idea de desarrollar computadoras extremadamente pequeñas y baratas que se comunican de forma inalámbrica y se organizan autónomamente. La idea de estas redes es repartir aleatoriamente estos nodos en un territorio grande, el cual los nodos observan hasta que sus recursos energéticos se agoten. Los atributos «pequeño», «barato» y «autónomo» dieron a conocer la idea como polvo inteligente (smart dust).

 

Por el momento, las redes de sensores es un temas muy activo de investigación en varias universidades, aunque ya empiezan a existir aplicaciones comerciales basadas en este tipo de redes. La red de sensores hasta la fecha más grande consistió de 800 nodos y fue puesta en servicio el 27 de agosto de 2001 para duración breve en la Universidad de Barkeley para demostrar la potencia de esa técnica en una presentación.Algunos sistemas han resultado ser aplicable muy variadamente, por ejemplo Berkeley Motes, Pico-Radio,Smart-Dusty WINS.

 

Caracteristicas.

 

Las redes de sensores tienen una serie de características propias y otras adaptadas de las redes Ad-Hoc:

 

Topología Dinámica: En una red de sensores, la topología siempre es cambiante y éstos tienen que adaptarse para poder comunicar nuevos datos adquiridos.

 

Variabilidad del canal: El canal radio es un canal muy variable en el que existen una serie de fenómenos como pueden ser la atenuación, desvanecimientos rápidos, desvanecimientos lentos e interferencias que puede producir errores en los datos.

 

No se utiliza infraestructura de red: Una red sensora no tiene necesidad alguna de infraestructura para poder operar, ya que sus nodos pueden actuar de emisores, receptores o enrutadores de la información. Sin embargo, hay que destacar en el concepto de red sensora la figura del nodo recolector (también denominados sink node), que es el nodo que recolecta la información y por el cual se recoge la información generada normalmente en tiempo discreto. Esta información generalmente es adquirida por un ordenador conectado a este nodo y es sobre el ordenador que recae la posibilidad de transmitir los datos por tecnologías inalámbricas o cableadas según sea el caso.

 

Tolerancia a errores: Un dispositivo sensor dentro de una red sensora tiene que ser capaz de seguir funcionando a pesar de tener errores en el sistema propio.

 

Comunicaciones multisalto o broadcast: En aplicaciones sensoras siempre es característico el uso de algún protocolo que permita comunicaciones multi-hop, léase AODV, DSDV, EWMA u otras, aunque también es muy común utilizar mensajería basada en broadcast.

 

Consumo energético: Es uno de los factores más sensibles debido a que tienen que conjugar autonomía con capacidad de proceso, ya que actualmente cuentan con una unidad de energía limitada. Un nodo sensor tiene que contar con un procesador de consumo ultra bajo así como de un transceptor radio con la misma característica, a esto hay que agregar un software que también conjugue esta característica haciendo el consumo aún más restrictivo.

 

Limitaciones hardware: Para poder conseguir un consumo ajustado, se hace indispensable que el hardware sea lo más sencillo posible, así como su transceptor radio, esto nos deja una capacidad de proceso limitada.

 

Costes de producción: Dada que la naturaleza de una red de sensores tiene que ser en número muy elevada, para poder obtener datos con fiabilidad, los nodos sensores una vez definida su aplicación, son económicos de hacer si son fabricados en grandes cantidades.

 

 

Texto original de Wikipedia.com

Sistemas de realidad virtual

10 Jul

Para visión

La realidad virtual en el área de la visión trabaja básicamente con dos tipos de implementos: cascos y boom, este último es un equipo que consiste en un brazo mecánico que sostiene un display a través del cual al girarlo se puede observar el entorno del mundo virtual en el cual se está; debido a que su peso es soportado por el brazo mecánico y no por el usuario, como ocurre con el casco, este puede ser un equipo de mayor complejidad y contenido electrónico, lo cual se traduce en ventajas tales como la obtención de una mejor solución. A continuación presentamos algunas características de estos equipos

Visión estereoscópica: Es la sensación de ver una determinada imagen en 3 dimensiones, esto se logra haciendo una representación igual para cada ojo de la imagen que se va a observar, estas representaciones son posteriormente proyectadas desde un mismo plano y separadas una distancia que está determinada por la distancia a la cual se encuentra el observador del plano de las imágenes. Desde este punto de vista, también existen equipos de visión monocular a través de los cuales se visualizan los objetos en la forma habitual.

Binoculares: Son equipos que constan de una pantalla individual para cada ojo, para el funcionamiento de la visión estereoscópica, es necesario tener un equipo que tenga esta característica; para equipos de visión monoscópica esta característica es opcional. Así mismo, también existen equipos monoculares, los cuales constan de una sola pantalla para ambos ojos.

Para interactuar

En la actualidad la realidad virtual esta haciendo uso de guantes y vestidos como medio para interactuar en un ambiente virtual, para lograr esto, estos dispositivos se comportan inicialmente como dispositivos de entrada que le permiten al computador conocer la ubicación del usuario dentro del ambiente virtual, así mismo, le permiten al usuario ubicarse en el medio e interactuar con el y en algunos casos recibir ciertos estímulos donde estos dispositivos se convierten en dispositivos de salida. Algunas sensaciones o estímulos que se pueden recibir son:

Sensación de estar sosteniendo un objeto que se ha cogido dentro del ambiente virtual, esto se logra gracias a unas almohadillas que se inflan en el guante y dan la sensación de percibir un peso. También se puede llegar a percibir la rugosidad y forma propias de objetos situados en el interior del ambiente virtual, lo cual se logra gracias a que algunos dispositivos tienen partes de aleaciones con memoria que tras variaciones en la temperatura toman formas que se les han practicado con anterioridad.

Para audición

Los audífonos son el equipo básico empleado para escuchar los sonidos propios de un ambiente virtual. A continuación se presentan algunas variantes de estos equipos:

Audífonos convencionales: Son los audífonos de uso más corriente, a través de estos se escucha el sonido simulado de los objetos sin identificar auditivamente el punto de ubicación del mismo.

Convolvotrón: Estos audífonos además de simular el sonido propio de los objetos, simulan la ubicación de los mismos dentro del ambiente virtual.

Niveles de Tecnología de Realidad Virtual

En la práctica de Realidad Virtual, muchos dispositivos de hardware son utilizados. La tecnología utilizada en Realidad Virtual puede ser clasificada en cuatro categorías o niveles:

Nivel de Entrada

Es el que utiliza un computador personal o estación de trabajo, e implementa un sistema “Window on a World”, es decir, la representación del mundo a través de la pantalla, como si se tuviera una “ventana al mundo”

Nivel Básico

Cuando se agrega unas ampliaciones básicas de interacción (guante o Mouse 3D) y visión (Gafas estereoscópicas) Nivel Avanzado El siguiente paso en la tecnología de Realidad Virtual es un mejor despliegue de las gráficas y mejor manejo de información de entrada. Esto generalmente se logra con aceleradores de gráficas, e incorporación de procesadores en paralelo.

Nivel Inmersivo

En este nivel, se han agregado al sistema de Realidad Virtual dispositivos más inmersivos, que le añaden realismo: HMD, Boom, feedback táctil…

  

Texto original de Monografias.com

Computación Ubicua

10 Jul


Se entiende por computación ubicua (ubicomp) la integración de la informática en el entorno de la persona, de forma que los ordenadores no se perciban como objetos diferenciados. Esta disciplina se conoce en inglés por otros términos como pervasive computing, calm technology, things that think y everyware. Desde hace unos años también se denomina inteligencia ambiental. Según los teóricos de la computación, estamos entrando en una nueva era en la tecnología digital dominada por la Computación Ubicua, conocida también como Inteligencia Ambiental. Consideran que estamos finalizando el ciclo del Ordenador Personal, que siguió a la era, ya superada, de los grandes ordenadores o “Mainframes”.

Sus promotores propugnan la integración de dispositivos alrededor de escenarios donde se encuentre localizado el ser humano, en el que éste puede interactuar de manera natural con sus dispositivos y realizar cualquier tarea diaria de manera completamente trasparente con respecto a sus computadores. Durante sus actividades ordinarias, alguien que esté “usando” computación ubicua (decimos entrecomillas “usando” porque el usuario nunca lo hará directamente) lo hace a través de diversos dispositivos y sistemas computacionales simultáneamente, y generalmente lo hará sin percibirlo. Este modelo es visto como un paso más del paradigma de uso de ordenadores de escritorio. Como punto común a todos los modelos de computación ubicua podríamos destacar el hecho de que comparten la visión de ser pequeños y disimulables, robustos y con capacidad para procesamiento de red, distribuidos en todas las escalas que comprende el día a día actual, y generalmente son integrables en nuestro entorno sin ser especialmente llamativos. Por ejemplo, un dispositivo de computación ubicua doméstico podría interconectar los sistemas de iluminación y calefacción con un control ambiente, de manera que en función de la evolución del momento del día y sus características, este sistema reaccionase y pudiese variar la temperatura y condiciones de luz en una vivienda o edificio, de manera continua e imperceptible. Otra aplicación frecuente son frigoríficos que son conscientes de su contenido cuando ha sido convenientemente etiquetado, capaces de planificar menús saludables para toda la semana en función de las necesidades de cada miembro de la familia, y advertir a los usuarios de la comida rancia o en mal estado.

Historia

Se atribuye a Mark Weiser la autoría del concepto en sus últimos artículos escritos en 1988 cuando trabajaba para Xerox en el laboratorio de Palo Alto (PARC). A Weiser en alguna medida le influyó el tratamiento de la distopía en la novela Ubik de Philip K. Dick, en la que se vislumbraba un futuro en el que todo, desde los pomos de las puertas al papel higiénico, sería inteligente e interconectado. El avance de la ciencia no ha ido tan rápido como vaticinaba Weiser, pero en los últimos años se han producido importantes avances en esa dirección.

El Instituto Tecnológico de Massachusetts ha sido protagonista de significativas aportaciones a esta disciplina, entre las que destacan las del consorcio de Hiroshi Ishii Things That Think, del Media Lab y la iniciativa CSAIL materializada en el proyecto Oxygen.

En un artículo de 2004, el escritor estadounidense Adam Greenfield acuñó el ingenioso término everyware para las tecnologías que incorporan computación ubícua, inteligencia ambiental o medios tangibles. Volverá a utilizar el término en su libro Everyware: The Dawning Age of Ubiquitous Computing (ISBN 0-321-38401-6), en el que Greenfield describe el paradigma de interacción entre la computación ubícua como una “mezcla de procesamiento de información en el comportamiento”, poniendo como ejemplo del mundo real el sistema de tarjeta pulpo utilizado en Hong Kong Octopus card.

Mark Weiser ha propuesto tres modelos básicos que puedan ser considerados para desarrollar sistemas ubícuos:

  1. Tabs: dispositivos de escasos centímetros, que pueden ser llevados por un usuario
  2. Pads: dispositivos del tamaño de una mano
  3. Boards: dispositivos que pueden llegar a medir metros

Estas categorías propuestas por Weiser se caracterizan generalmente por ser grandes, tener una forma plana o incorporan algún tipo de salida visual. Si se relajan estas consideraciones (permitiendo aceptar, por ejemplo, dispositivos de hasta el tamaño de nanómetros) se puede extender este rango hasta un número de dispositivos mucho mayor, y también potencialmente hasta un número de dispositivos mucho más útiles. Por lo tanto, con el tiempo se han acabado proponiendo otros tres tipos de clasificaciones:

  • Dust (polvo): dispositivos miniaturizados que pueden no tener algún tipo de salida visual (por ejemplo, los sistemas Micro-electromecánicos MEMS), cuyo tamaño puede oscilar entre nanómetros hasta micrómetros o milímetros.
  • Skin (piel): pueden ser fabricados con capacidades de emitir luz y con diversos materiales, como polímeros conductivos, algunos dispositivos orgánicos, etc… Se ven frecuentemente como ropa, cortinas, o diversos elementos de decoración
  • Clay (arcilla): conjuntos de distintos MEMS pueden combinarse para crear formas en tres dimensiones.

Áreas de investigación

La Computación Ubicua representa un gran desafío científico/técnico, un gran nicho de oportunidad y es un área atractiva para el sector empresarial. Su adopción, como una de las líneas estratégicas de desarrollo del país, se reflejará en un impacto social, un impacto científico, un impacto tecnológico, y finalmente en un impacto económico. Las áreas de investigación y desarrollo que se identifican como de alta prioridad dentro del cómputo ubicuo y sin ser exhaustivos, se presentan a continuación:

  • Sensores
  1. Adquisición de señales corporales
  2. RFIDs
  • Redes de próxima generación
  1. Internet 2 como soporte para cómputo ubicuo
  2. Redes de Sensores
  3. Redes Adhoc
  4. Interconexión de dispositivos heterogéneos
  5. Seguridad informática
  • Sistemas Distribuidos
  1. Rediseñar soluciones para que sean aplicables al cómputo móvil y/o ubicuo.
  2. Soporte multimedia
  3. Tolerancia a fallas
  4. Escalabilidad
  • Computación móvil
  1. Sistemas de IgualaIgual (PeertoPeer)
  2. Servicios de posicionamiento y localización
  3. Servicios de Base (e.g. Posicionamiento por GSM/GPRS)
  • Desarrollo de sistemas ubicuos (aplicaciones)
  1. eMedicina
  2. Monitoreo y procesamiento de señales médicas remotas
  3. Contextaware systems
  4. Monitoreo de actividad en ancianos
  5. TeleDiagnostico Móvil

La sensibilidad de los objetos

De acuerdo con la Ley de Moore, se espera que los dispositivos electrónicos continúen reduciendo su tamaño y precio en el futuro. Ello es aplicable por igual a cualquier componente, sean procesadores, dispositivos de almacenamiento o sistemas de comunicación. Por tanto, es previsible que en un futuro próximo, sea económica y físicamente factible, incrustar dispositivos digitales en cualquier objeto de uso común, lo que les dotará de lo que se ha dado en llamar “sensibilidad”, (smartness), o la propiedad, a modo de camaleones digitales, de cambiar su comportamiento de acuerdo con las circunstancias ambientales que le rodean.

Por ejemplo, se espera que las lavadoras apliquen la temperatura y programa de lavado adecuado a las características de las prendas a lavar, pues estas llevará un chip RFID en la etiqueta que indicará las condiciones para el lavado. Igualmente, ese mismo chip puede controlar la temperatura de la plancha o de la secadora, o seleccionar los disolventes a utilizar en las limpiezas en seco. De modo similar una bicicleta de gimnasia podrá modificar el esfuerzo necesario para moverla, en función de la fuerza y grado cansancio del usuario etc.

Otros equipos como los microondas pueden llegar a detectar cuando la temperatura de cocción ha alcanzado el interior de los alimentos y parar automáticamente. Poco a poco estos aparatos están llegando de puntillas a nuestras vidas y son de tan fácil uso que no reparamos normalmente en ellos. El que con ayuda de un telemando el televisor busque automáticamente los canales, que mediante un teléfono se pueda, no solo seleccionar la temperatura sino programar la hora de inicio y fin del funcionamiento de la calefacción del hogar, o que el automóvil desbloquee las puertas y encienda los pilotos con solo pulsar un botón de una llave electrónica, nos parece operaciones tan sencillo que no reparamos que para efectuarlas se precisa el concurso de un pequeño procesador.

Comportamiento coordinado de varios objetos

Las posibilidades que se presentan con esta capacidad de cambio de comportamiento de los objetos, cuando estos cambios se pueden llevar a cabo de modo coordinado entre diversos aparatos, son precisamente lo que se explora en estos momentos en los laboratorios de Computación Ubicua. Como su nombre indica se buscan conseguir acciones realizadas de forma coordinada por procesadores situados en multitud de objetos pertenecientes a la vida cotidiana por ello también se les domina procesos de Inteligencia Ambiental.

Para hacer posible esta interacción, se necesitará que estos pequeños y baratos procesadores estén conectados a sensores y actuadores colocados en objetos del entorno del usuario y que se encuentren formando una red que soporte el que entran en juego mediante procesos distribuidos, donde cada procesador, aparte de modificar el comportamiento de un objeto, interactúa e intercambia información con los demás para conseguir un objetivo que precisa del trabajo coordinado de todos ellos.

Igualmente es necesario el concurso de la computación móvil, pues parte de los procesos acompañen al individuo en sus desplazamientos, tanto próximos, como el deambular por un edificio, como lejanos, como los desplazamientos en un vehículo. Ello exige que algunos de estos dispositivos sean de fácil transporte y que tengan la capacidad de conectarse automáticamente a las redes existentes, allá donde se les traslade.