martes, febrero 28, 2012

Conclusiones de el encuentro Fractal`12

Buen día.

Como les comenté el miércoles de la semana pasada, el viernes me preparaba para ir al encuentro "fractal`12: programando la realidad", un evento en Medellín, Colombia, que habla sobre la tecnología y su impacto en la sociedad (aunque también hablan de arte, ciencia ficción, literatura, música, arquitectura, etc), y pues bien, si fuí :D. Y como dijo alguien en la conferencia, el evento me dejó un sabor un poco agridulce.



En primera instancia, el evento tuvo buena logística (aunque hubieron algunos problemas de sonido y de video, pero bueno, eso pasa hasta en las mejores familias XD), el lugar era bellísimo (decir bellísimo se queda corto para el lugar) Desde la entrada, todo el camino estaba lleno de flores de diferentes colores y tamaños. El clima soleado y los árboles a la distancia hacían del lugar algo hasta mágico. La intervención arquitectónica del lugar, que se fusionaba con la naturaleza, era de lo más interesante para un evento que en uno de sus temas hablaba sobre la realidad aumentada y una posible transformación de la arquitectura en un futuro por una en la que, en un lado, tratara los espacios físicos, y por otro, realizara las "capas" sobre los espacios físicos deseados por el usuario.



Keiichi Matsuda fue el experto que habló sobre este tema. Viendo que este experto habló sobre un tema del que yo ya había escrito hacía buen tiempo sin conocerlo, me dio la valentía de renombrar un artículo llamado "La realidad aumentada" por "La realidad aumentada y el diseño industrial", porque a mi parecer, no es solo la arquitectura la que se  transformará por la realidad aumentada, el diseño de objetos también cambiará de manera radical, al querer realizarse "skins" o "capas de información virtual" a objetos reales.

Sin embargo, la belleza del lugar contrasta con su distancia a la ciudad: llegar allá me costó 2 horas de camino. Esto es una circunstancia que funciona a modo de filtro: te debe gustar mucho el evento, debes tener tiempo e interés por  hacer cosas nuevas, para ir. Y esa iniciativa fuerte para ir a un lugar así hace que mucha gente que pueda estar interesada en fractal, pero que no sea fiel seguidora, o aventurera, no vaya simplemente para evitar la fatiga. A mi parecer, muy personal por cierto, no me interesó el tiempo para ir hasta allá, el lugar superaba con creces el esfuerzo para llegar a él. Acá les dejo una de las imágenes de cómo se ve el viaje desde el metrocable.



Pero hubo un segundo pero, y un tercero incluso. El segundo fue el día: Viernes. Como mercaderista de la empresa Flip Art ( y bueno, como casi cualquier persona que haya estudiado mercadeo y ventas debe saber... aunque se que suena presuntuoso :P), se que cualquier producto, servicio o evento, tiene un público objetivo que se deriva de una segmentación  del mercado. El público objetivo del evento Fractal trabaja todos los días, de 9 am a 5 pm (o de 8 am a 6 pm) para hacer uso de sus fines de semana en sus gustos y placeres personales. Esto hace que un viernes sea un día muy poco práctico para los seguidores de Fractal, lo cual hizo que muchas menos personas fueran al evento (Comparto otras imágenes del lugar :D)





El tercer pero, fue la "preinscripción". Si bien era una necesidad burocrática del evento, ponerle una preinscripción aumentó el esfuerzo necesario para poder acceder a fractal, los cupos se llenaron, y cuando fui, se que casi la mitad de la lista no asistió, porque la vi mientras buscaban mi nombre. Esto era obvio. Si me debo inscribir para ir a un evento un día que no puedo porque trabajo a un lugar al que me demoro 2 horas de camino y que el dinero para ir hasta allá asciende a mínimo $10.000 pesos (eso son aproximadamente 6 dólares), pues es más fácil que me ahorre el esfuerzo. Eso me pareció un muy mal movimiento por los organizadores, que se nota que hicieron su mejor esfuerzo y que dedicaron gran cantidad de tiempo y logística a un evento que de lejos es de talla internacional y que es transversal al desarrollo de la ciudad en la que se desenvuelve. Todavía sigo sin entender cómo es que el gobierno local no hace gran esfuerzo no solo para patrocinar un evento como estos, sino para darle la convocatoria que le hace a otros relacionados con el emprendimiento. Esperemos que el año que viene, la existencia del centro tecnológico Ruta N  en Medellín sea el pilar de desarrollo de un evento de tan importante magnitud como lo es Fractal.



Es por esos motivos expuestos anteriormente que vi la convocatoria de Fractal muy pobre, muy escasa, a mi pesar. Sin embargo, los temas tratados, los expositores del evento (Salvo por uno, Federico Builes. Mi opinión personal es que la forma elegante en la que justifica su ociosidad a través de su creatividad a la hora de crear programas solo demuestra petulancia y arrogancia. Muchos lo podrán ver como una fuente de sabiduría y una persona muy  inteligente que es talentosa en su ramo de conocimiento, pero para mí solo es alguien diciendo "miren, soy vago e hice este programa para que haga todo por mí". Si esa genialidad fuera usada en pro del beneficio colectivo, y fuera mostrada con la humildad de quien se da cuenta que es poco lo que sabe frente a lo mucho que puede hacer, sería una persona fenomenal. Lástima que no lo sea), la talla de las personas que fueron  (Solo Jennifer Magnolfi era asesora del programa STAR design, de la NASA), la logística del lugar, la decoración y obviamente el lugar mismo fueron muy bien planteados.








Creo que la intención de los organizadores era muy buena y para los que fuimos, la experiencia fue de lo mejor, pero también creo que las variables de la distancia, el día y la preinscripción jugaron en contra de la masificación del evento. Esperemos que el próximo año (Porque TODOS queremos Fractal`13 :P) se tomen en cuenta las experiencias del presente y se mejore todo lo posible.

Acá les comparto 3 de las conferencias, sin editar, que se vieron en fractal`12, desde el canal de la empresa donde actualmente laboro (Flip Art es una empresa especializada en brindar soporte técnico de computadores y venta de tecnología, por si alguien tiene la duda ^_^):







Enlaces relacionados:
Fractal`12: programando la realidad
La realidad aumentada y el diseño industrial

miércoles, febrero 22, 2012

Fractal`12: programando la realidad

Buen día.

Después de mi breve ausencia de el blog, vuelvo a mis entradas nocturnas para hablarles de un evento antioqueño que, a mi parecer, es revolucionario: El encuentro Fractal.

Desde hace más o menos 6 u 8 años, he tenido un creciente interés por la ciencia ficción, desde que pude leer los primeros libros de Isaac Asimov y vi la película Matrix. Y desde ese mismo tiempo aproximadamente he estado buscando información sobre el tema en diversos eventos, sobre todo locales, para no tener que desplazarme a otras ciudades (cosa que no hago principalmente por el tema económico). Cual sería mi sorpresa cuando encontré un evento en el que gomosos de la ciencia ficción se reunen con personas expertas en la materia, realizan conversaciones, hacen reuniones, escriben cuentos e historias de ciencia ficción, y sobre todo, ayudan a difundir la importancia de crear tecnología desde la escritura y la imaginación. Estas personas son las que trabajan alrededor de un grupo llamado "Fractal", existente en la ciudad de Medellín, Colombia.

Para mí, como escritor de tecnología, es de obligatorio (y placentero) cumplimiento dar a conocer este evento y este colectivo, ya que desde la ficción, el arte, la ciencia y la tecnología, estudian los adelantos tecnológicos, y, sobre todo, la forma en que dicha tecnología influye en la sociedad, cómo la modifica, cómo la transforma, y cómo genera nuevas perspectivas y amenazas en nuestro modo de vida. Es por esto que en la presente entrada les comparto el grupo de facebook de Fractal, para que conozcan más de este colectivo, y también les presento la página de internet de ellos, para que la visiten y estén más informados sobre los eventos y publicaciones que divulgan.

Grupo en facebook de Fractal


Página de internet de Fractal

¿Por qué me parece extremadamente importante este colectivo? En mi ciudad, Medellín, se está gestando un cambio cultural muy grande. La alcaldía, en la medida de sus posibilidades, está educando fuertemente a los ciudadanos para que sean empresarios (emprendedores) y a que generen innovaciones a través de propuestas de valor traducidas en empresas y negocios. Por otro lado, se impulsa fuertemente la educación básica primaria y secundaria a través del lema "Medellín la más educada", se han creado brechas arquitectónicas en lugares deprimidos de la ciudad para darles un nuevo renacer y una lenta pero inexorable mejoría a los alrededores. Lo mejor es que esas brechas arquitectónicas consisten en bibliotecas, parques, zonas verdes, corredores peatonales, zonas de juego y zonas de representaciones artísticas, y no zonas comerciales. Sumándole a eso, tenemos a la empresa "Metro", aquella empresa que maneja el metro de nuestra ciudad, los sistemas integrados de transporte, los metrocables, que trata de educar a través de la "cultura metro", y que ha integrado a la vida del ciudadano la tecnología RFiD en sus tarjetas "Cívicas" para el pago del tiquete de ingreso al sistema de transporte. Si a eso le inclumos que este año (2012) se empezarán a probar y masificar los transportes eléctricos en Medellín, con toda la plataforma de recargas y de cultura que eso implica, vemos que hay mucha tecnología ingresando a nuestra ciudad, mucha cultura impactando de manera paralela, y esto obviamente tendrá repercusiones futuras en la ciudad. ¿Cómo saber cuales son? ¿Cómo saber qué se avecina? ¿Cómo saber a qué nos tenemos que atener? Sencillo, basta con ir a una conferencia de este evento el viernes 24 de febrero, y ver cómo en la ciudad se piensa tecnología, se piensa futuro, y se piensa local, pero con visión global.

viernes, febrero 17, 2012

¿Qué será de la música en el futuro?

Soy un amante de la música. Trato de,  no solo escucharla, sino sentirla, permitir que permee mis oídos y despierte en mí emociones. Conozco el poder de una canción relajante un día tensionante, o la pasión que puede despertar una buena canción al besar a alguien que amas. He llorado con canciones, me he enojado y he liberado ira acumulada a través de sonidos guturales y guitarras rasgantes. Me he transportado a campos de batalla con canciones épicas, y he muerto de tristeza con sonatas melancólicas. Lo mejor de todo es que aún sigo acá, a pesar de haber vivido todas esas cosas a través de sonidos. Así que valoro mucho la música, y por eso esta entrada es sobre ella.

Hay música de todos los estilos, tipos, fusiones y ritmos. Podría decir que no hay persona que no se identifique con un ritmo particular. Tal vez es porque toda la vida hay un ritmo dentro de nosotros que nos mueve, y que en el momento en que deja de tocar, dejamos de ser... tal vez es porque resuena en nuestras cavidades y cajas de aire, haciéndonos sentir vibrantes y llenos de energía... la verdad no se por qué, pero también se que la música, como la conocemos, sufrirá una gran transformación gracias a la tecnología, y cómo no hablar de ello :)

Antes que nada, advierto que no soy músico y mi conocimiento sobre la música es vago, así que puede que me equivoque frente a algunos conceptos. Sin embargo, no debo ser un erudito en la lectura de partituras para poder hablar de la transformación venidera en la composición musical.

(Continuará... Hoy estoy tratando de hacer un esfuerzo sobrehumano para escribir, pero simplemente, nada sale :S)

miércoles, febrero 15, 2012

Redes neuronales: emulando el cerebro (Parte 2)

Los científicos e ingenieros de computación estudiaron la estructura del cerebro humano y aislaron el elemento principal de su interior: la neurona. Estudiaron luego la estructura y funcionamiento de la neurona y trataron de hacer un modelo de funcionamiento de la misma.



Hicieron un modelo en el que las neuronas son una especie de "tanque", y que tiene conexiones de entrada, muchas, pero solo una de salida. Esas conexiones de entrada funcionan como tubos, y esos tubos tienen unas llaves, que permiten entrar más o menos agua. Esas llaves son llamadas el "peso" de la entrada, y entre más peso tenga la entrada, más relevante es la entrada para la salida. Ese tanque tiene una capacidad límite de almacenamiento de agua y cuando ese límite es superado, la salida se abre, y sale agua. Así, tenemos nuestro modelo listo: un tanque con muchas tuberías de entrada, y una de salida, y cada tubería de entrada con una llave que regula la entrada de agua al tanque. Todas esas entradas echan agua al tanque y sacan agua del tanque, pero si en algún momento muchas entradas se activan, pues el tanque se llena y sale agua de él. El tamaño del tanque se llama "umbral", y se dice que cuando el tanque se llena, la neurona se "activa".

Con nuestro modelo listo,  ponemos una neurona una al lado de otra, y al tener varias, creamos lo que se llama una "capa". Luego ponemos varias capas listas, conectando las salidas de unas neuronas como entradas de otras, y tenemos una red neuronal.



Cuando los ingenieros y científicos empezaron a probar las redes neuronales, se dieron cuenta eran muy robustas para reconocer patrones, pero eran demasiado lentas para hacer procesamientos de información como los computadores, y que debían ser entrenadas para que pudieran funcionar (el mecanismo de "entrenamiento" consiste en definir el tamaño del peso de la entrada a la neurona, es decir, la relevancia que tiene una entrada para activar la salida). Como las neuronas son modeladas en computadores, y los computadores no son  paralelos sino secuenciales (no entraré a explicar este detalle, pero si quieren saber por qué, es necesario estudiar arquitectura de computadores), los modelados de redes neuronales se demoraban demasiado en dar resultados, por lo que se alargó mucho más su estudio y aplicación.



Ahora, si vemos nuestro cerebro, para nosotros es muy complicado multiplicar por ejemplo 76761847651847 x 30140834701. Para una red neuronal, es algo difícil hacer este tipo de operaciones. Sin embargo, nuestro cerebro recibe información de todas partes, la procesa de manera paralela, genera salidas, y aún así, tiene capacidad de mucho más. Esa es la ventaja de una red neuronal frente a un computador. Y esas son precisamente las ventajas de las redes neuronales, las que están ahora siendo emuladas de manera artificial con procesadores individuales, usadas en elementos como robots y sistemas de reconocimiento de patrones, como rostros y modelos. Son usados también en predicciones y, en un futuro, es muy probable que sean usados en dispositivos móviles para predecir comportamientos de su portador, la cara, el rostro, sus gustos y otras cosas que no alcanzo ahora a imaginarme :)



Artículos relacionados:
Reconocimiento por el cuerpo: biometría

martes, febrero 14, 2012

Redes neuronales: emulando el cerebro (parte 1)

Buen día.

Luego de un ajetreado y trabajoso fin de semana, volvemos con las entradas al blog. Hoy hablaremos sobre las redes neuronales.

El cerebro humano es una máquina maravillosa. Está compuesta de miles de millones de células, interconectadas entre sí, y toda esa interconexión es la que construye lo que llamamos "el ser". Dentro de nuestro cerebro está lo que conocemos como la conciencia, nuestros recuerdos, miedos, anhelos y facultades. Se podría decir que el cerebro es todo lo que somos: no estamos dentro de él, somos él.

Lo interesante del asunto es que esta maravillosa máquina, tal como la conocemos, está compuesta por el mismo elemento, repetido infinidad de veces, y conectado infinidad de veces con otros elementos idénticos a él. Es decir, el cerebro está principalmente compuesto de neuronas, y todas las neuronas son, en esencia, iguales. Es la interconexión entre las mismas la que hace que un ser humano sea como es y no como otro, o que al menos funcione de manera apropiada. Mi teoría es que el cerebro es una comunidad de microorganismos que conviven en simbiosis con una gran cantidad de otras colonias que tienen configuraciones diferentes, y que el conjunto de esas configuraciones, trabajando de manera simbiótica y equilibrada, forma lo que llamamos "organismo". Es tan perfecta esta simbiosis, que un solo cambio en elementos como las proteínas puede cambiar drásticamente el macroecosistema creado por todas esas células, o puede dejarlo inútil. El punto es que el cerebro es una interacción compleja de muchos elementos simples.



Cuando se entendió el funcionamiento de una neurona, y se entendió la forma en que "funcionaba" el cerebro (porque aún no se entiende en su totalidad), nacieron los intereses en emular estas redes. Comentarios optimistas surgieron al respecto, diciendo que incluso la existencia de neuronas artificiales interconectadas podía generar lo que conocemos como inteligencia, pero en las máquinas. Es así como se trató de hacer un modelo matemático de la neurona, y se hicieron configuraciones de esas neuronas que respondieran a determinados estímulos, obteniendo resultados que han ido avanzando en el tiempo.

(continuará)

miércoles, febrero 08, 2012

El dilema del exceso humano y la tecnología

Buen día.

Sé que esta no es la hora habitual mía para publicar entradas en el blog, pero este tema me ha agarrado de improviso y tengo que aprovechar el insight ^_^. Hoy les hablaré del dilema del exceso humano relacionado con la tecnología, y sobre todo, con los avances tecnológicos en salud.

El ser humano es un ser claroscuro. Se ha ganado reputación como un constructor y transformador del mundo, pero al mismo tiempo como destructor y transgresor de límites. Desde la antiguedad, hemos visto que el hombre pareciera luchar entre "el bien y el mal", entre acciones que atentan contra su propia vida y acciones que enaltecen su inteligencia y bondad. En resumen, el hombre es un ser dual, es un dilema.

Una de las sombras de la oscuridad humana radica en los excesos y los abusos de poder. Reyes, príncipes, gobernantes, magnates, policías... muchos de los seres a los que la sociedad les asigna cierta clase de poder, lo han usado para satisfacer alguna necesidad personal, o lo han usado para poner su opinión sobre la de otro hombre que no tiene dicho poder. Pareciera que los excesos y los abusos de poder hacen parte de la propia naturaleza humana, aunque no podemos negar que personas con poder también han hecho grandes cambios positivos en la humanidad (Mahatma Gandhi, por ejemplo).

Los excesos de los que hablo todavía se siguen llevando a cabo, y de hecho, son comunes. Drogadictos (excesos en psicoactivos), alcohólicos, fumadores activos, obesos (en algunos casos hay una predisposición genética, por lo que no todos los casos de obesidad son excesos), ludópatas, entre otras dolencias, son consecuencia de los excesos humanos frente a los "placeres" del mundo. Y hasta cierto punto, uno podría pensar "bueno, si este tipo bebe todos los días, es natural que muera de cirrosis", o "Claro, si se fuma una cajetilla diaria de cigarrillos, ¿cómo no le va a dar cancer de pulmón? Y hasta acá, la justicia natural hace lo que debe hacer.



Pero, digamos que surge un tratamiento revolucionario que le permite a las personas enfermas de cancer de pulmón, recibir un pulmón nuevo, completamente limpio, que lo cure automáticamente del cancer que lo aqueja y le permita vivir mucho más tiempo. Pues eso sería genial, ¿cómo no? La cantidad de vidas que se salvarían sería grandísima, muchos de nosotros tendríamos todavía algunos seres queridos en caso de que esto existiera u ocurriera. Imaginemos también un tratamiento contra la obesidad, que te permita recuperar la forma corporal de manera casi inmediata. Sabemos que la obesidad solo en estados unidos afecta al 50% de la población, y que es un problema de seguridad nacional. Cuántas personas no serían felices si pudieran encontrar una cura a su obesidad mórbida y tuvieran una mejor calidad de vida...

Pero las cosas no son tan bonitas como las pintan los descubridores de estos tratamientos. Sí, es cierto, un implante de pulmón podría salvar la vida de alguien con cancer, pero ¿qué pasaría si esa persona se ha ganado el cancer por fumar en exceso? ¿Tiene derecho a pedir un transplante de pulmón sabiendo que él, por decisión propia, ha destruido su sistema respiratorio? ¿Merece una persona obesa recibir un tratamiento de reducción de peso instantanea, cuando su obesidad se debe a su sedentarismo y comida chatarra, que él por decisión propia practica y consume? He ahí el dilema. Por un lado, negar un implante de pulmón a una persona enferma casi lo sentencia a muerte, cosa que el hombre no tiene potestad de hacer. Por otro lado, ponerle un implante de pulmón a un adicto al cigarrillo solo prolonga la adicción de esa persona, y sobre todo, una adicción sin consecuencias futuras. De hecho, es mucho más grave de lo que uno piensa, porque si la persona sabe que puede fumar todo lo que quiera y sus pulmones serán reimplantados ¿A qué excesos llegaría? ¿Qué haría si tuviera el poder de arreglar en cualquier momento un pulmón afectado por sus excesos?



En estos casos mencionados ¿cuál es el papel de la tecnología? ¿Salvar vidas o prolongar los excesos y abusos del hombre? ¿qué se debe hacer en esos casos? ¿Evaluar la vida del paciente para saber si merece o no el implante o implantarlo sin importar las consecuencias futuras o lo que esa persona haga con su vida? Ese es un dilema al que se enfrentarán en un futuro cercano los profesionales de la medicina, así como lo hicieron con los implantes mamarios... y bueno, viendo lo que vemos actualmente con las cirugías estéticas, creo que ya sabremos el resultado...

Enlaces relacionados
La tecnoética, indispensable
Qué será de la humanidad cuando...

Los sentidos del futuro: las redes de sensores inalámbricos

Buen día.

En nuestra entrada anterior, hablamos sobre las Vunet, o redes entre carros. Hoy hablaremos de algo similar, que en realidad es el preámbulo de las Vunet, y son las redes de sensores inalámbricos.

Defínase un sensor como un dispositivo que es capaz de convertir un tipo de energía diferente al eléctrico, en un impulso o señal eléctrica. Los sensores tienen la característica de que ese impulso o esa señal creada está relacionada de manera proporcional a aquello que convierten. Es decir, si esa señal convertida es muy alta, la señal será muy alta y viseversa.



Existen muchos tipos de sensores: de humedad, presión, temperatura, vibración, humo, líquidos, nivel... etc. Los sentidos de los seres humanos son sensores químicos altamente desarrollados que usan las propiedades fisicoquímicas de la materia para convertirlas en impulsos eléctricos interpretados por el cerebro, y crear lo que nosotros llamamos realidad.



Si retomamos lo que explicamos en nuestro anterior artículo, existen redes que se expanden gracias a que sus nodos, o elementos, son capaces de repetir la señal del nodo maestro y aumentar su rango. Esto es muy importante entenderlo, porque es la base de una red de este tipo: cada elemento de la red es un repetidor de la señal maestra y puede ser (aunque no es obligatorio) un generador de información. Para entender mejor este concepto, mejor miremos la imagen inferior.



Entonces, tenemos un nodo madre que es el que genera la señal principal. Tenemos unos nodos secundarios que repiten la señal del nodo principal y que aumentan su rango, y estos repetidores pueden, o no, generar información que viaja a través de la red creada por nodos. Si estos nodos no están conectados a través de cables, decimos que tenemos una red inalámbrica. Si en la red inalámbrica tenemos sensores que generan información y la comunican a través de la red, tenemos una red de sensores inalámbricos. Vemos entonces que existe una gran similitud entre esto y una Vunet. De hecho, una Vunet es una red de sensores inalámbricos donde cada carro es un sensor que recopila información del entorno y la comunica a otros nodos.

¿Por qué es esta red tan importante? Para mí no solo es importante, es revolucionaria. Las redes de sensores inalámbricos pueden usarse en volcanes para hacer seguimiento de actividad sísmica, en el océano para crear patrones de mareas y de vientos, en los bosques para protegerlos de incendios en caso de que se presente uno (En el momento en que surja una llama, un sector de la red le comunicará a todos los otros que existe fuego, y se tomarán las medidas respectivas), se pueden poner sensores en las casas de ancianos para monitorizar su comportamiento,  y es la base de algo mucho más importante: la inteligencia colectiva.

La inteligencia colectiva se basa en muchos elementos interconectados entre si, que transmiten información a todos los nodos conectados, y esa información es procesada por algunos nodos y compartida. Se podrían hacer cálculos muy complejos o predicciones partiendo el procesamiento de una cierta información entre todos los nodos de la red. Si esos nodos fueran, por ejemplo, robots, podríamos hacer que aquello que aprenda uno, lo aprendan todos, o que se comporten de maneras específicas dependiendo de la información  que estén recibiendo. Esto es llamado actualmente "algoritmo de manada" y se está estudiando gracias a las redes de sensores inalámbricos.



De hecho, hay mucho más. Existen redes actualmente en estudio llamadas "redes de area corporal", y no es más que una red de sensores inalámbricos entre varios dispositivos en el cuerpo de un usuario, que se conectan, comparten información, y en caso particular, comparten info con otras personas que entren en contacto con nuestro cuerpo. La nanotecnología, con colonias de robots, dependerá de manera fundamental de crear algoritmos de manada que permitan a los nanobots realizar sus tareas sin posibilidades de la apocalíptica "plaga gris" (Ya hablada en nuestro blog hace algunas entradas).



Es entonces de necesidad fundamental entender las redes de sensores inalámbricos para poder crear predicciones futuras sobre la conectividad, los dispositivos móviles, la internet, y toda la revolución que se avecina con la fotónica, las vunets, y los robots con redes neuronales, (Tema de mi próxima entrada) entre muchísimas otras cosas.

Yo, aunque a veces lo parezca, no soy pesimista sobre el futuro, soy muy optimista, pero siempre sin olvidar las pulsiones y la naturaleza humana. Si el hombre es capaz de sobrevivir a su ciencia, y a su instinto violento, tendrá un futuro idílico. Sino...

Enlaces relacionados:
Redes entre carros: Vunet
La electrónica del futuro: fotónica
Nanotecnología: la plaga gris

martes, febrero 07, 2012

Redes entre carros: Vunet

Buen día

Hoy hablaremos de un nuevo término nacido gracias al auge de la internet en dispositivos móviles: Las Vunet, o red de autos. Un auto es un dispositivo móvil, ¿no?, Bueno, hay redes que se hacen a partir de ellos :D



Imaginemos una red de internet inalámbrica. Existe un nodo maestro que proporciona el servicio. Ese nodo tiene un radio de acción determinado. Todos los dispositivos que quieran tener internet deben estar dentro del rango de ese nodo. Si se quiere conectar más dispositivos a la red, pero que no se encuentran en el radio de acción, se instalan "multiplicadores" o "replicadores", que no son más que dispositivos que copian la señal del maestro y la replican. Algo similar a lo que hacen las antenas repetidoras de los celulares.



Ahora imaginemos que ese nodo principal es un edificio. Imaginemos también que todos los carros a la redonda de ese edificio usan parte de esa señal para conectarse a internet. Pero imaginemos que, al mismo tiempo, cada carro es un repetidor, que expande un poco más la señal del edificio. Tendríamos entonces una red que tiene tanto alcance como carros cercanos entre sí. Y también imaginemos que la información entre los carros, la generada por ellos, puede fluir libremente por la red, y comunicarle cosas importantes a otros carros, tales como choques, trancones, tráfico, entre otras. He ahí la Vunet



Las Vunets son un concepto nuevo que ha nacido gracias a las redes de sensores inalámbricos, internet en dispositivos móviles y tecnologías tales como la Zigbee y la bluetooth. Sus aplicaciones son inmensas (es tener prácticamente una red en movimiento, o "red cinética", conectada a la internet, una "red fija"). Sin embargo, hay que solucionar algunos problemas referentes a la red, como lo son el efecto doppler (la frecuencia de las señales se modifica con la velocidad), la superposición de señales, el eco, la administración del tráfico de la red, la seguridad de la red y sobre todo, su viabilidad económica. Por ahora, está en investigación, pero me recuerda cuando el Darpa usaba el internet en sus instalaciones... Interesante, ¿no? ^_^.

sábado, febrero 04, 2012

La electrónica del futuro: Fotónica

Buen día.

Siguiendo con nuestras entradas de conocimiento básico, hoy hablaremos de una tecnología que se ha abierto campo en la electrónica de consumo desde la aparición de los semiconductores emisores de luz. Esta tecnología es llamada "fotónica". El diseño de la interfaz, que habíamos dejado empezado en el artículo anterior, lo tocaremos la próxima semana. Advierto de antemano, para poder entender mejor este artículo, sería bueno saber algo sobre la luz, porque puede llegar a ser un poco técnico, aunque he tratado de hacerlo lo más simple posible ^_^.



Los cables eléctricos conducen energía a través de un flujo de electrones que se mueven de hueco en hueco en los átomos del material. Este flujo de electrones depende principalmente del material, de su nivel de conductividad y su área transversal. En resumen, entre más conductor y grueso sea el cable, más rápido conduce. Sin embargo, no importa qué tan puro sea el material o qué tan conductor sea, los datos siempre tienen un límite de velocidad, que es muy inferior a la velocidad de la luz. Aparte de eso, cuando conduzco corriente por un cable, por propiedades de los conductores, se pierde parte de la energía en forma de calor. Por eso, transmitir energía por largas distancias siempre es un problema, por la disipación de energía. Para acabar de ajustar, los cables son similares a unos "tubos" de agua: entre más anchos son, más "agua" pueden transmitir. Esa agua es el equivalente a la información, y el "grosor" es llamado "ancho de banda". El ancho de banda de un cable conductor depende de la naturaleza de la señal transmitida (la frecuencia, para ser más exacto), del grosor del cable, del largo del cable y de una cantidad de factores externos que no entraré a detallar. Como pueden ver, un cable en realidad no es muy amigable, desde el punto de vista ingenieril.



Y apareció la fibra óptica. Es un maravilloso tubo de vidrio-plástico, que es el equivalente a un espejo alargado y que, si un rayo de luz entra por una de sus cabezas, sale al otro lado con prácticamente ninguna pérdida en intensidad, y mejor que todo, a una velocidad completamente superior a la de un electrón en un cable. Y no solo eso, puedo usar muchas "longitudes de onda" para mandar diversos tipos de información por el mismo cable de luz, y las ondas no van a interferir entre sí. Entonces, la fibra óptica mejora la velocidad de transferencia de información, la cantidad enviada por un cable, y sobre todo, elimina de manera sustancial el efecto de pérdida de información.



Ahora, imaginen que quieren transferir la información de una memoria de 8Gb de un pc a otro, a través de una terminal fotónica. Digamos que la memoria está llena. Con las velocidades de transferencia de información, la cantidad de información que se puede enviar por un solo haz de luz, nos demoraríamos más o menos 8 segundos vaciando nuestra memoria. Interesante :)


Pero eso no es todo. La luz tiene una gran cantidad de propiedades que no tiene la corriente, como por ejemplo que muchos haces de fotones se crucen sin interferir entre sí, o que se puedan crear haces de luz coherente (todos los haces tienen la misma longitud de onda), o que la luz, al chocar contra determinados elementos, se difracta y se transfiere al mismo tiempo, o que cambia las propiedades de algunas moléculas al chocar contra ellas. Algunas superficies pueden configurarse para guardar diversa información dependiendo de la dirección del haz de luz que las golpee (holografía). En una foto normal, se ha grabado la intensidad de la luz, pero cuando vemos un holograma, no solo se ha grabado la intensidad sino la diferencia de fase entre las ondas que golpean la superficie. Sí, se que se lee complicado, pero resumiendo todo esto, trato de decir que la luz se comporta diferente a un electrón, y que podemos aprovechar esos comportamientos para hacer memorias con más capacidad (más densas), puertos más rápidos, procesadores más potentes, sensores mucho más sensibles, y, en general, toda una revolución en la electrónica tal cual como la conocemos.



Y hay más... pero lo hablaremos en otro artículo, porque si bien el fotón tiene características que un electrón no tiene en un cable, un electrón tiene propiedades cuánticas que comparte con el fotón... y de ahí nace otra revolución que necesita al menos media década para ser explotada: la spintrónica. Pero eso será tema de la próxima semana :D


viernes, febrero 03, 2012

Tecnología ubicua: sistemas embebidos

Buen día.

Como lo prometido es deuda, este es mi segundo artículo. Hoy hablaremos de cómo la tecnología pretende estar en todos los lugares y al mismo tiempo ser invisible para los usuarios. Este tema será tratado en 2 artículos, ya que obedece a 2 ramas de conocimiento que, gracias a mis universidades, he tenido el privilegio de estudiar: la tecnología embebida y el diseño de interfaces. En esta entrada trataremos el primer item.

Hemos visto como la tecnología, progresiva e inevitablemente ha empezado a permear en todos los campos humanos, desde la satisfacción de necesidades básicas, hasta en nuestras acciones más íntimas y personales. Conexión a internet en todo momento, actualización automática de las redes sociales a partir de dispositivos móviles, robots de mascota, televisión inteligente, electrodomésticos interconectados... y solo estamos ad portas de la revolución de la fotónica, las redes de sensores inalámbricos, las redes de carros (o las redes vunet), y la ciencia de nuevos materiales derivada de la nanotecnología. Con todas estas tecnologías, veremos muchos más circuitos rodeándonos, comunicándose entre si, y cumpliendo infinidad de funciones. Pero, ¿no sería horrible vivir rodeado de cables y luces todo el tiempo que titilen cuando algo se prende? Pues, precisamente eso es lo que evita la tecnología embebida.



Cuando hablamos de un circuito embebido, estamos hablando de un sistema que es "invisible" para el usuario, es decir, que se encuentra incrustado en otro elemento mayor que lo contiene en su totalidad, y que cumple una función sin que el usuario se percate de que lo está haciendo. Un sensor de humedad para las plantas, por ejemplo, con un sistema de riego, es un circuito embebido; el circuito dentro de una lavadora es un sistema embebido; un sensor de nivel de un río es un sistema embebido.

Otra de las características de los sistemas embebidos es que son especializados. Un computador es un aparato multitarea que te permite hacer varias cosas al mismo tiempo, tiene altas prestaciones en cuanto a memoria, capacidad de procesamiento y de energía. Un sistema embebido es reducido en todas sus prestaciones, es hecho para una función o un conjunto de funciones reducidas, la mayor parte del tiempo permanece "dormido" esperando actuar en el momento apropiado, y cuando lo hace, realiza su labor para luego entrar a dormir nuevamente.

Una tercera característica de estos sistemas es que surgen como una consecuencia de la miniaturización, y del uso de microcontroladores. Un microcontrolador es un dispositivo que internamente tiene a su disposición muchos recursos para procesar información, y que necesita un programa interno para dar uso a esos recursos (ese programa interno es llamado firmware). Es gracias a las prestaciones del microcontrolador que podemos hacer circuitos de uso específico.



Estos sistemas, pequeños, fiables, limitados, invisibles y potentes, pronto estarán mucho más diseminados por el ambiente artificial del ser humano, por lo que es bueno conocer más de su naturaleza. Cuando entres a tu casa y las luces automáticamente se prendan al detectar tu movimiento, o cuando pagues el taxi con el precio que marca el taxímetro, te acordarás de este post, y dirás "eh, yo si aprendí en ese blog, que bien" XD

jueves, febrero 02, 2012

Reconocimiento por el cuerpo: biometría.

Buen día.

El tema de hoy será uno que es encuentra en boga de muchas aplicaciones digitales y que prevee ser el futuro de la seguridad informática: la biometría.

Todas las personas somos únicas corporalmente hablando. Nuestras medidas corporales, si bien pueden coincidir parcialmente con algunas medidas de otras personas, nunca son iguales. Nuestros rasgos faciales, nuestro rostro, incluso nuestra forma de caminar es un rasgo personal, propio, de cada individuo. Nuestra información también es personal, propia, de cada individuo, al igual que nuestros rasgos... claro, la conexión es directa: nuestros rasgos, que son únicos, se pueden usar para acceder a nuestra información, que es única.

Y con esta conexión directa, surge lo que conocemos como biometría. La biometría se encarga de crear métodos para reconocer seres humanos a través de sus rasgos físicos.

Los métodos biométricos dependen de muchos elementos (tipo de algoritmo o sistema usado, complejidad del algoritmo, potencia del hardware usado para procesar la info, etc), pero uno de los más importantes es el rasgo a identificar. Veamos algunos de ellos:

- Huellas digitales: todos sabemos que tenemos unas extrañas y particulares marcas en nuestros dedos y palmas de las manos, que serpentean sobre nuestra piel en forma de surcos y salientes, que no se tiene idea para qué sirven, pero que ahí están. Aprovechando lo único de estos surcos, se han creado aplicaciones que son capaz de identificar una huella a través de valores en el número de surcos, distancia entre los mismos, grosor, curvas, etc.



- Iris: es equivalente a la huella digital, solo que en el rostro. Desde el color, pasando por la distribución de los pigmentos de manera radial, hasta imperfecciones en diferentes sectores del ojo, son elementos usados para generar pistas biométricas que permitan identificar a una persona. Se usa un escaner óptico para este tipo de reconocimientos.



- Rostro: el rostro tiene mucha información que puede ser digitalizada. La distancia entre los ojos, de los ojos a la naríz, el ángulo de la linea entre el ojo y la nariz, la distancia entre la nariz y la rendija de la boca, el grosor de los labios, la proporción entre todos estos tamaños juntos...y muchos otros elementos que tienen que ver con movilidad facial, son captados por una cámara, procesados a través de un algoritmo de visión artificial, y usados en cosas como el inicio de sesión de los computadores Lenovo con su programa "veriface"



- Caminado: Esa frase de "la negra tiene tumbao" no es una charla o similares. Con un sensor de gravedad en el plano X, Y y Z, se puede percatar que las personas, todas, tienen un "andar" completamente particular a ellos mismos. Usando esta información, un celular puede detectar si ha sido robado por otra persona, o acceder a perfiles de los que lo usan, o entrar en modos diferentes (modo "ebrio" se te bloquea el teclado para que no llames a exnovi@s XD. Aunque por ejemplo puede detectar que alguien está herido o drogado y alertar a la policía).

- Voz: el reconocimiento de voz se basa en las propiedades del sonido. Tono, timbre, armónicos y flexiones de voz, junto con muletillas, usos comunes de algunas palabras o ciertos acentos en las palabras, son elementos que los algoritmos de reconocimiento de voz usan para detectar identidades particulares.



Es muy probable que existan otros métodos de reconocimiento, como el mapa térmico del cuerpo, pero no están tan difundidos comercialmente como para ahondar en ellos. El punto de estos métodos es que, al paso que vamos, la tecnología será tan ubicua e invisible que el usuario no se percatará muchas veces de su presencia, pero ella si lo hará del usuario. Y a partir del diseño de interfaces, se esperará que el mundo reaccione a las personas de una manera particular, dependiendo precisamente de cada persona. Marketing personalizado a partir de gustos recopilados en buscadores, promociones en tiendas a partir de la detección de rostros o de proporciones de extremidades, adaptación de los artículos del hogar a partir de datos aprendidos por el uso con el usuario, son usos que se pueden pronosticar y que no son tan obvios como el acceso por reconocimiento facial, de rostro o de iris. Mi humilde opinión es que lo que necesitamos en este momento no es tanto métodos biométricos nuevos, sino creatividad para sacarles provecho en pro del bienestar humano en general.... Es hora de aplicar ^_^.

miércoles, febrero 01, 2012

La economía y la tecnología: los hype cycles

Buen día.

Nuestro tema de hoy será muy "económico". Hablaremos del futuro económico de la tecnología, y una de las herramientas más importantes para las empresas, los futuristas y los escritores de ciencia ficción al ver hacia adelante: los hype cycles.

Cuando una empresa quiere desarrollar un nuevo producto que tiene tecnología incluida, no lo hace a "ojo cerrado". Necesita saber si sus clientes quieren lo que ofrecen, si lo necesitan, si van a pagar con ellos, y sobre todo, en qué grado de aceptación social se encuentran. Como las empresas de tecnología en este momento son el rubro más importante en la economía mundial, es excesivamente importante contar con herramientas de análisis y decisión para no caer en desgracia contra competidores (Caso Apple en sus principios, y caso Yahoo en estos momentos, sin contar el caso Kodak :S).



Esa necesidad hizo que las empresas investigadoras del mercado y consultoras, se interesaran en el rubro de la tecnología para analizar su devenir y... ps bueno, venderle información a las empresas sobre lo que iba a pasar. Una de ellas, Gartner Inc, creó una gráfica que mide la aceptabilidad social de una tecnología en el mercado. Esta gráfica es llamada Hype cycle.

Según Gartner, la tecnología pasa por varias etapas en su aceptación social:

- Etapa de iniciación: En esta etapa, los "avanzados" o los gomosos de la tecnología adquieren los servicios ofrecidos y, si el servicio tiene buenas perspectivas y utilidades, se crea una expectativa de los posibles usos que se le puede dar. Y por estos iniciadores, la tecnología empieza a ganar nombre y es comprada por muchas personas más.

- Pico de espectativas infladas: Bueno, el producto resulta ser la maravilla y a todo el mundo le gusta. Todo el mundo espera cambiar a la sociedad con él, y se crean pajaritos en el aire sobre lo que pasará con ese nuevo artilugio y cómo todo será mejor (cuantas ilusiones no se hicieron en el mercado cuando la telefonía celular salió al mercado: que todo el mundo se iba a comunicar siempre y en todo momento, que el celular iba a revolucionar el mundo... blah blah)

- La desilusión: Pero como todo artilugio humano es imperfecto, y siempre habrán personas que se empeñen en encontrar errores (reales o imaginarios) de algo, pues empezarán a haber descontentos frente a la nueva tecnología: que es cara, que es extraña, que no es compatible, que depende del operador, que no hay señal, que se calló la descarga... en fin. Eso hace que el producto empiece a ser rechazado por sus problemas, y su cuota de mercado baje. Si un producto no tiene un rediseño en esta etapa, o no existe un departamento de diseño en la empresa que se encargue de leer los comportamientos de los clientes para traducirlos en mejoras al producto o a la tecnología, el producto se guarda en un cajón y seguimos adelante. Este agujero de desilusión es la prueba real sobre una nueva tecnología.

- La iluminación: El producto o tecnología es mejorado, rediseñado, y se escuchó muy bien lo que el cliente veía como malo. Aparece la segunda y tercera generación de productos, y la gente empieza a reconsiderar y recapacitar sobre este nuevo invento. Por esta razón, se reactivan las compras y se empieza a dar una cierta traza de optimismo en el ambiente, ya un poco más moderada por la experiencia pasada.

- Plateau de productividad: el producto resulta siendo otra vez una maravilla. No es perfecto, pero funciona tal cual los clientes lo quieren. La empresa ha creado un recorrido, ha levantado una marca, ha cambiado en algo el mercado, y los clientes están satisfechos. La tecnología está entonces dando dinero a sus creadores, y vuelve y empieza el  ciclo con otra tecnología nueva.



¿Por qué es importante un hype cycle para nosotros? Porque nos indica qué tecnologías tienen buena acogida, cuales se desarrollan más rápido, cuales más lento, cuales desaparecerán, y cuales se encuentran en su máximo apogeo. Viendo un hype cycle podemos tener una visión más clara de cómo será el mundo en unos pocos años, cuáles tecnologías surgirán, y sobre todo, podemos especular sobre posibles aplicaciones que tengan esas tecnologías (de antemano se sobreentiende que surgirán cosas relacionadas con: como se aplicará en la guerra, el sexo y el status social), sea para bien o para mal.

Acá les dejo el hype cycle de Gartner del año 2011, para que nos preparemos frente a lo que vendrá ^_^



Enlaces relacionados:
Nuevas tendencias en la robótica
La realidad aumentada