24 nov 2011

Redirigiendo peticiones en Apache


Esta es una de esas tareas sencillas que donde se complique un poco prepárate para perder más tiempo del que pensabas. Cuando buscamos redirigir peticiones con Apache, más si no implica reescribir direcciones o algo complejo, una de la opciones más simple es utilizar un archivo .htaccess en el directorio que nos interesa modificar el comportamiento, el tema es que no basta solo con eso ya que hay una pequeña serie de cosas a tener configuradas para que funcione.
La solución básica como comentaba es utilizar este tipo de archivos que contienen directivas para modificar el comportamiento del servidor, Apache verifica su existencia antes de responder habiendo infinidad de opciones desde simples como no listar los archivos en un directorio hasta cosas más elaboradas como sustituir partes de una URL, manejar errores y demás.

En este caso la directiva que nos interesa se llama Redirect, siendo su sintaxis:

Redirect 301 /Directorio/old_index.php http://localhost/Directorio/new_index.php


Aquí Redirect es la directiva que especifica redirigir la petición y la acompañamos con los códigos de estado, estos si bien generalmente los pasamos de largo son bastante importantes teniendo cada uno un significado particular y es buena cosa conocerlos, aunque parezca que el resultado sea el mismo son fundamentales para que los navegadores puedan "comprender" el estado de un recurso, en este caso utilizamos uno de la serie 3xx que comprende las redirecciones, 301 significa que el recurso fue Movido permanentemente.
Luego colocamos la ruta del archivo original que ya no será accesible y separada la nueva dirección completa, es decir incluyendo el http://, el archivo se coloca en el directorio raíz o podemos incluirlo en el directorio específico donde se encuentre el archivo a excluir, lo importante es esté en nuestra ruta de búsqueda para que Apache lo tenga en cuenta (más adelante el porque es importante su ubicación).
Bien, ahora accedemos a http://localhost/Directorio/old_index.php y debemos ser redirigidos a http://localhost/Directorio/new_index.php, pero.... nada sucede, algo anda mal... y bueno, a prepararse para googlear un rato :)

El tema es que algunas de estas directivas hacen uso de funcionalidades de módulos de Apache, por lo que tenemos que verificar también que el módulo este primero disponible, y segundo, habilitado. En este caso es el llamado mod_alias, que viene incluido por defecto en Apache, así que a verificar si lo tenemos habilitado, en Ubuntu tipeamos en la terminal:

a2enmod alias

este comando y su contrapartida a2dismod son para habilitar (en-abled)  o desahabiliar (dis-abled) módulos, obtenemos:

Module alias already enabled

significa que ya lo tenemos y está habilitado, bien, no es problema  de módulos, que más verifico?
Lo siguiente a tener en cuenta son los archivo de configuración de Apache, supuestamente el httpd.conf pero en mi caso esta en blanco así que los buscamos en el directorio sites-enabled (en Ubuntu bajo /etc/apache2/sites-enabled), esta estructura es similar a la de módulos, los disponibles en mods-available y los activos en mods-enabled. En este caso tenemos los sites-available y los sites-enabled (son simplemente links), vamos a este último ya que posee los específicamente habilitados. En mi caso solo tengo un sito habilitado pero este archivo varía de una instalación a otra, buscamos algo como:

 
<Directory /var/www/>
  AllowOverride none
  Order allow,deny
  allow from all
</Directory>

Aquí esta el culpable, entre todas las opciones disponibles tenemos la infame AllowOverride, según la documentación "AllowOverride controls what directives may be placed in .htaccess files.", observamos que tiene un rotundo None, ahora sí, de ahí que no funcione el .htaccess que colocamos, lo sustituimos por un "All" y reiniciamos el servidor. Efectivamente ahora sí las peticiones son redirigidas a la nueva ruta, si examinamos el request con Firebug o similares vemos:

  Request URL:http://localhost/Directorio/
  Request Method:GET
  Status Code:301 Moved Permanently

siendo redirigidos a la nueva ruta, hay que tener en cuenta que también podemos especificar que directorios queremos habilitar y no todo el sitio (como en mi caso <Directory /var/www/>) y de ahí la importancia de donde colocaremos el .htaccess, también para con None/All hay más opciones, ahi depende de cuanto queramos customizar el server. Es sencillo pero como decía hay que verificar un par de cosas en caso de que no ande, si luego de esta corta guía sigue sin funcionar prepárate para leer un rato más.



11 nov 2011

Cherokee Market

Bien decíamos que las tiendas de aplicaciones llegaron para quedarse, ahora no pensé que el rango de escenarios fuera tan diverso, leyendo por ahí me traigo el Cherokee Market, no sé si es el único en su tipo pero tiene pinta. Aparentemente es como los hostings con aplicaciones prearmadas pero en tu propia infraestructura, viniendo de la mano de Cherokee no debe ser malo, tuve la oportunidad de jugar un poco con este servidor y es muy amigable, con una interfaz cuidada que simplifica bastante el trabajo.






Y lo fundamental, el rendimiento parece ser bastante bueno, no debe ser lo óptimo para configuraciones muy exigentes donde haya que afinar mucho las perillas pero es interesante.
A mí personalmente instalar un Nagios o un Redmine no me engancha demasiado así que si con un par de clicks tengo el tema solucionado no lo dudo, en precios ambos por ejemplo figuran como gratuitos y un Liferay CE está a U$S 29.95, tampoco tan escandaloso, habrá que probarla a ver que tal.


7 nov 2011

Web o Desktop?

Mientras leía el post Web o desktop? en Software Guisho, pensaba en lo lindo que es poder iniciar un proyecto pudiendo decidir uno mismo que tecnologías usar, enfoques y si cabe lo que dice el título: lo hacemos web o desktop?
Precisamente hay una corriente a llevar todo lo posible a la web, los programas de toda la vida, los que siempre corrieron sin problemas en nuestra PC a la web, lo distribuido, lo siempre online. Ahora, creo que si bien es cierto que hacer un aplicación web tiene sus ventajas (muchas por cierto) y sus desventajas, hay que diferenciar varias cosas, para empezar: lo hacemos web o lo hacemos con tecnologías web?, creo que aquí podemos hilar fino y diferenciar un par de cosas. Considero que una aplicación es web cuando hace uso de todo el stack web, es decir, reside en un servidor, se comunica con el cliente mediante peticiones HTTP (generalmente, no siempre), y finalmente interactuamos con ella a traves de un navegador, es más, me traigo la definición de Wikipedia: 
"En la ingeniería de software se denomina aplicación web a aquellas aplicaciones que los usuarios pueden utilizar accediendo a un servidor web a través de Internet o de una intranet mediante un navegador."
Muy bien, ahora si yo realizo una aplicación que trabaja offline exclusivamente, que resida en local por ejemplo sin siquiera necesitar el servidor o el acceso a la red, un simple archivo HTML que el usuario abre con el navegador, es una aplicación web? o solo utiliza tecnologías web tales como HTML, CSS y JavaScript? El ejemplo puede pecar de sencillo, nadie hace (me imagino yo) una aplicación medianamente útil en un simple archivo, pero... porqué debería ser simple? Los navegadores van camino de convertirse en plataformas de desarrollo completas, la "nueva maquina virtual" leí por ahí, por la capacidad de darnos un entorno más o menos controlado y poder abstraernos de la plataforma subyacente, léase SO's, arquitecturas y demás variables.
Esto siempre fue así, pero con todos las novedades que trajo HTML5 (y no digo traerá porque varias ya las tenemos disponibles, sí hoy, en mi navegador y seguramente también en el tuyo) sumados a nuevos enfoques (SPA, MVC client-side, bus de eventos, Thin Server Architecture...  la época de la librería JS solo para eye-candy quedo atrás) tenemos a nuestra disposición toda una serie de cosas que antes estaban reservadas a las aplicaciones desktop como bases de datos locales o el multiproceso en background, o que éstas ni siquiera tenían como el manejo de historial para diferenciar tareas y recordar sus estados, varias de estas características tienen la posibilidad de trabajar completamente offline, junto a otras menos conocidas forman un entorno muy interesante.
Pensándolo bien no suena tan descabellado una aplicación que usara todo esto de manera exclusivamente local sin necesidad de un servidor remoto, solo parte del stack web, perdería la mitad de la gracia pero que es posible seguro.

Y el Cloud?
Es verdad que hay como una "manía" de migrar toda aplicación que se pueda a la web, potenciado por todo el ruido del Cloud que reflota las bondades de toda la vida y algunas nuevas: no solo distribuido, accesible, multidispositivo, sino que los desarrolladores también optimizamos almacenamiento, recursos hardware ahorrando energía, es ¿mas seguro? que tener nuestros datos en local (supuestamente usamos sistemas redundantes y tolerantes a fallos), costos, mantenimiento, todo color de rosas. Aunque muchos de los tópicos solamente son aplicables a los que manejan datacenters y no todos son relevantes para nosotros los desarrolladores de apps, hay que reconocer que son cosas tentadoras de que formen parte de nuestra arquitectura, y de nuevo, suman y nos inclina la balanza. Estas ventajas no son de uso exclusivo de una aplicación full-web, pero hablan el mismo idioma.


Tenemos también los efectos colaterales: la progresiva migración de las aplicaciones a la web y su consiguiente maduración nos familiarizó otro concepto: usabilidad, si bien esta área hace tiempo que existe, en el diseño para la web es donde encuentra su punto álgido, su mayor representación, un tópico que es cada vez más tenido en cuenta y suma puntos para un mejor trabajo. Ahora, alguien recuerda la usabilidad de los programas de escritorio?, sacando el software de cabecera (las aplicaciones con años en el mercado o mucha industria detrás que financie mejoras continuas) el resto deja mucho que desear, nadie se extraña si en un local comercial u oficina hay alguna aplicación de letras verdes sobre fondo negro (no necesariamente de consola, cuidado), si ese programa es portado a la web alguien pensaría por un instante en hacerlo de la misma forma? creo que no. Incluso las empresas de desarrollo que trabajan a menudo con tecnologías web poco a poco incorporan este concepto a sus productos.
Sin duda la mentalidad es otra, incluso esas aplicaciones típicas SAAS, me refiero a los refritos de CRM's de toda clase que surgen como hongos, incluso hasta los más inmaduros tienen una interfaz cuando menos agradable, lo cual ya es mucho decir. No importa si como el alcance es global los players se multiplican y por eso hay que poner cuidado en lo visual, es un paso adelante y los usuarios agradecidos. Me a pasado de tener un par de mejoras estéticas simples, pero cuando vuelves a la interfaz anterior ya las hechas de menos, es hasta gracioso, como esa receta para  un "logo web 2.0", que si bien es una tontera ya nos indica algo, como que hay un diseño 2.0 y otro que no lo es, algo que esperamos que este ahí aunque no sepamos de que se trata.


Entonces?
El tema es que hay aplicaciones que naturalmente tiene sentido que sean web, básicamente todas las que involucren acceder a un recurso compartido que este medianamente centralizado, las redes sociales por ejemplo, los datos tiene que estar en algún lado al que podamos acceder todos, y dejando de lado algunas frikeadas lo más lógico es un prestador de servicio y una serie de  consumidores que accedan a los mismos, igual para los portales de noticias, blogs, buscadores o similares.
Pero por otro lado, y donde es difícil contradecir a los evangelizadores del "todo web", ¿hay aplicaciones que no tenga sentido llevar a la web?, aquí ya no es tán facil la respuesta, y en caso afirmativo, porque no?
Una de la cosas que más se criticaba era la vuelta al "cliente tonto", donde el PC volvía en el tiempo para convertirse en un equipo de escasos recursos que solo se utiliza para acceder a la red, delegando en un servicio remoto la persistencia/procesamiento de los datos, los documentos, archivos, configuraciones y demás, ok, pero veamos un poco más en detalle: esto solo lo podriamos aplicar en el caso de las aplicaciones thin-client, no en términos hardware, sino en términos web, típico portal de la intranet que lista recursos y nos habilita el CRUD, la página web de toda la vida, pero y las verdaderas aplicaciones web?, es decir, las aplicaciones pesadas en el cliente (cuidado, no sean asnos y le llamen fat-clients, es más elegante: rich-client apps), esas que sí hacen un uso extensivo de los recursos hardware que posea el equipo.




Miremos a corto/mediano plazo: en lo inmediato ya tenemos aceleración por hardware de gráficos en el navegador, algunos más avanzados que otros pero es un feature que llegó para quedarse, iniciativas como el WebGL necesitan sí o sí este tipo de recursos para una experiencia medianamente fluida, pero en el futuro inmediato tenemos WebCL, la posibilidad de acelerar el poder de calculo de JavaScript mediante GPU, los demos sobra decir son IMPRESIONANTES, así que tenemos aceleración por harware en gráficos y nitro puro en el lenguaje de programación (no utilizo JavaScript solamente porque tambien esta DART, por ahora  irrelevante pero con Google detrás nunca se sabe). Esto en el campo de potenciar las tecnologías más extendidas, pero no hay que olvidarse de NaCl, otra  propuesta de Google para ejecutar código nativo compilado (C/C++) en una sandbox dentro del navegador, aquí tendríamos uso extensivo de recursos del PC, también los procesos independientes por pestaña o plugin en Chrome van en la linea de aprovechar al máximo el hardware ganando de paso estabilidad en la ejecución, otra tendencia en ascenso.





Si miramos a más largo plazo tenemos WebRTC (no te gustan los acrónimos? dos platos!), básicamente un conjunto de tecnologías disponible para los fabricantes de navegadores que habilita tareas en tiempo real, la típica videoconferencia pero se supone que irán apareciendo cosa más interesantes. Sumo otra tendencia  no tan nueva que dejo para un post completo: la aparición de las arquitecturas SOFEA que calzan en este enfoque, trasladando gran parte del trabajo (no todo) al cliente.



Con todo esto tenemos que la vieja idea de que el tema pasa por el uso o no de la potencia de cálculo local ya pierde fuelle, pero repito: potencia de cálculo local, no digo recursos locales, y aquí es donde creo finalmente llegamos a la línea divisoria: el acceso a los recursos hardware, al sistema de archivos (cada vez menos relevante pero hoy día está ahí) y más importante, el acceso a los periféricos, al USB, al asqueroso puerto serial de toda la vida (nadie se asombre: scanners de algunos años o lectores de tarjetas). Sin ir más lejos te invito a que la próxima vez que vayas al super observes el tipo de conectores que disponen las balanzas.

Algunos apuntes
Me quiero detener en un algunos puntos, primero el hámbito: hay que diferenciar el uso casual del uso laboral, en el primer caso creo que la disyuntiva está ganada, yo mismo si enciendo el PC y no tengo acceso a Internet, no importa que fuese a hacer, ya me entra una apatía indisimulable, el navegador debe ser por lejos la aplicación más utilizada por cualquiera aquí y sobre cualquier plataforma.
Pero en el entorno laboral la cosa cambia, esas aburridas aplicaciones de facturación, gestión de documentos o planillas de calculo hay veces en que es hasta deseable que no tengan conección a Internet, por seguridad o porque sencillamente no la necesitan y así funcionan tan campantes desde hace años, ahora, no les aseguro les quede mucho por delante trabajando desconectados.

Segundo, otra cosa en que quiero profundizar es en lo del acceso al sistema de archivos local, si bien esto se espera se dé cada vez menos, como mencionaba en parte a la tendencia a lo cloud, donde nuestros archivos estarán cada ves en menor medida en nuetro equipo, no oculta el hecho de que los navegadores no están diseñados para manejar recursos locales, simplemente no están hechos para eso, en todo caso el manejo de archivos se limita a la tarea de enviarlos a un servidor externo mediante el botón de upload, no tienen capacidad de acceso decente, en todo caso te dan un explorador básico, permiten abrir un manojo de tipos de archivos, pero más allá de eso tenemos que recurrir a extenciones, addons o plugins (cuidado, esto no es exclusivo de los navegadores, el mismo explorador de archivos de cualquier SO no maneja todos los tipos de ficheros obviamente), pero la idea queda clara: el navegador es para acceder a recursos externos, no locales.

Esto puede cambiar en un futuro no muy lejano, particularmente con la popularización de los smartphones los browsers se ven tentados a incluir cada vez más capacidades de acceso al hardware del equipo solventando así más situaciones, volviéndose más capaces, aún así hay un fenómeno curioso con estos dispositivos: en un principio las aplicaciones funcionaban básicamente en local, no accedían a Internet. Luego con la masificación del WIFI, el 3G, ya con  el acceso a la red como algo trivial, todo parecía migrar otra vez al navegador, pero en cuanto las capacidades hardware comenzaron a aumentar la tendencia se revirtió, la mayor parte del tráfico de Internet hoy se da desde aplicaciones, no desde el navegador, desde software instalado en local, otra vez pantallas de inicio plagadas de íconos multicolores en lugar de marcadores y el arribo de las tiendas de aplicaciones, extraño no?
- no pasemos por alto sin embargo que esto de las appstores no solo crean un nuevo mercado de oportunidades sino que también es un ambiente más controlado por los fabricantes que la web, cuidado con esto -




Creo que el fenómeno se explica de la misma manera, amplificado porque lo móvil tiene el foco de la industria y los cambios de procesan y adoptan de manera mucho más rápida, en mi forma de ver es lo mismo, solo que en los smartphones no hay USB, no hay archivos locales, lo que hay es cámara de fotos, más acelerómetro, más velocímentro, más GPS, más Bluethot, más RDF, y por fin sí: más USB, más  archivos locales, y ahí el fenómeno se repite, el navegador se queda corto y necesita entrar en acción algo una capa más abajo, algo que corra sobre el bare metal, y ahí no hay chance, las aplicaciones nativas llevan delantera.

Por último quiero mencionar el uso del concepto de API's como medio estándar de interactuar los recursos, sean hardware como mencionaba o remotos, cualquier aplicación o sevicio hoy día tiene que tener un  medio estandarizado de comunicarse o exponer los recursos contenidos, incluso era la carencia que más se le reclamaba a Google+  en su salida, y salvando las distancias entre una red social masiva y un software para la oficina, todo esto trae aparejado un concepto: hoy el software totalmente standalone no tiene cabida, a menos que sea algo muy puntual o simple, en su lugar se potencia el ecosistema de aplicaciones, dejando de paso más margen para hacer negocio, de nuevo un concepto que  ya existía pero que en lo web encuentra su mayor expresión: que una extensión para esto, que un módulo extra, que freemium, que límite de consultas gratuitas y la lista sigue.
Las aplicaciones de escritorio claro tienen toda una serie de cosas para comunicarse, algunos implementamos un RMI, otros usaban un socket y escuchaban, alguno tiene embebido un nevagador, de todo, ahora en un ambiente web esperamos desde el vamos una URL y una serie de operaciones REST, SOAP o lo que sea, pero esperamos que estén ahí, sin complicaciones, hoy día el consumo de API's -públicas o no- es moneda corriente, encontrando su máxima expresión en los mashups, otros que cada vez tienen más huecos en el mercado.




Retomando si Web o Desktop no quiero dejar de mencionar un tercero en discordia, el llamado desarrollo híbrido, un enfoque para mi acertadísimo ya que nos da lo mejor de dos mundos. Este término no es tan nuevo, si bien puede aplicarse a cualquier cosa que mezcle un par de tecnologías con foco diferente, aquí lo referenciamos en el caso del desarrollo para desktop que hace uso de tecnologías web. Esto es interesante ya que tiene una serie de ventajas, la primera es utilizar todo el knowhow de desarrollo web volcado al escritorio, no solo es novedoso, hay veces que no tienes tiempo/ganas/recursos de aprender una tecnología según cada SO. La mayor parte de las veces consiste en utilizar un motor de renderizado de HTML + CSS, un intérprete de JavaScript (alguien dijo un navegador sin botones?) envuelto en alguna suerte de wrapper que permita instalarlo como una aplicación ejecutable más y nos de acceso a las funciones de bajo nivel del SO que generalmente no teníamos en el caso del browser puro (tray icon o integración al menú contextual por ejemplo).

Es cierto que te quedas en un "a medias", que no es ni full web ni full desktop, pero prefiero verle el lado positivo, ya que repito te da lo mejor de dos mundos y para nosotros los desarrolladores web tiene un plus no menor: programas para un solo navegador, nada de diferencias según lo que tenga el cliente.
En mi caso puntual (luego de haber ensayado otros enfoques como JWS) estoy probando la plataforma Titanium que peca de estar un poco verde, sobre todo la documentación, otra que promete es QT con el módulo QtWebKit, pero aquí trabajamos con C++ sumándole la idiosincrasia de QT, solo para valientes, quizás más adelante :)

Para ir rematando creo que la discusión es más profunda pero repito me quedo con la impresión de que cada ves tiene menos sentido tener aplicaciones solo desktop, al menos en la empresa donde generalmente son complejas y preferiblemente necesitan intercomunicarse con el mundo exterior (que no con Internet, cuidado aquí), creo que de a poco van a ir evolucionando pero en un enfoque más como los smartphones, aplicaciones locales con las ventaja de estar conectados por default, de tener los recursos más accesibles desde fuera o exponer los propios. Aunque una migración a tecnologías full web no siempre tiene sentido creo integrarán en menor o mayor medida cada vez más servicios externos, y si vamos a encarar un desarrollo, mejor ir previniendo y utilizar la tecnología que está desde el vamos creada para eso. Sobre esto un ejemplo clarísimo: Wunderlist, una aplicación que empieza a sonar con fuerza desarrollada con Titanium y obteniendo de paso la multiplataforma, al ser el resultado un navegador más un wrapper simplifica mucho la distribución en cada SO -móviles incluidos- más el despliegue web unificando más la experiencia/ecosistema.

A pesar de lo mucho que mejoren los navegadores siguen siendo un medio de acceso a contenidos remotos, no locales, por más que puedan editar videos o generar gráficos impresionantes, por esto diferencio que una cosa es para un usuario en su casa (95% neto consumidor y las redes sociales como ejemplos de apps full-web) y otra cosa es el hámbito laboral, donde se genera el contenido, los datos, aquí hay otras exigencias que los navegadores al menos hoy día no cubren, y el desarrollo híbrido puede abrirnos una veta muy interesante.
Volviendo al título del post: "Web o desktop?", creo que podemos complicarla aún un poco más: Web, Desktop o Híbrido?