1 antidoto contra la crisis: el Software Libre.

Como todo el mundo no para de hablar de la crisis supongo que ha llevado el momento de que yo también lo haga, aunque sea de una forma optimista para nuestro sector y es que creo que con ella se abren un montón de oportunidades para el Software Libre. Allá vamos…

Si el gobierno tuviera un poco de cabeza, aunque fuera por una vez, terminaría de darse cuenta que es el momento de apostar por Software Libre de forma firme cómo lo están haciendo muchos otros países cómo Brasil, China, Rusia y muchos otros. Ya es hora de dejar de gastar miles de millones en licencias de software propietario realizado en otros paises e impulsar la creación de software y el desarrollo de las empresas locales. Este es uno de los grandes puntos fuertes del Software Libre, que permite que cualquier empresa pueda participar y crear su propio nicho de mercado y no sólo algunas grandes multinacionales extranjeras. La idea podría parecerse a la que ha lanzado uno de nuestros ministros y por la que ha recibido tremendas críticas, invertir en nosotros mismos, con la gran diferencia que cualquier inversión en Software Libre termina redundando en toda la humanidad, en que estamos invirtiendo en la creación de una industria que está maniatada hoy en día a trabajar con las migajas que nos dejan desde fuera a pesar de que tenemos todas las herramientas que podríamos necesitar para dar el paso nosotros mismos.

A pesar de que el paro no para de crecer tampoco lo hace la demanda de expertos en el uso de Software Libre, una de las salidas más interesantes si estás estudiando hoy en día una carrera relacionada con la informática. Es realmente complicado encontrar gente bien preparada en este sector y para mí el futuro será de la gente que apueste por este campo. Una pequeña gota en este mar de aceite es ver cómo cuando muchas empresas de IT están presentando despidos una de las clásicas del Software Libre cómo es Red Hat presenta unas cuentas impecables.

Por otro lado la madurez que ha alcanzado hoy en día el Software Libre le hace estar listo para afrontar el reto de saltar a la primera línea y no defraudar a aquellos que decidan apostar por él. Se avecinan grandes cambios y va a ser el momento de apretarse el cinturón… con el gran fracaso de Windows Vista no parece una gran idea que el siguiente movimiento del mercado sea desembolsar una cantidad enorme de pasta para jugarsela con Windows 7, ya se trate del gobierno, empresas o la gente de la calle, sino de decidirse de una vez por todas y pasarse al Software Libre. Parece que una de las grandes novedades de este sistema operativo será que por primera vez en toda la historia sus requisitos serán menores que los de su predecesor. O lo que es lo mismo, han decidido optimizar algo su sistema, una de las bases de casi todos los sistemas operativos libres . Algo que llevamos haciendo desde el día 0 y en lo que tenemos un gran camino de ventaja cómo se ha demostrado en la adopción de sistemas Linux en las últimas hornadas de ultra portátiles.

Ejemplos cómo los iniciados en Extremadura y Andalucía hace ya un tiempo, la unificación de las empresas que trabajan con software libre conformando ASOLIF (Asociaciones empresariales de Software Libre Federadas) y cada una de las asociaciones autonómicas que demuestran la proliferación de empresas dedicadas al Software Libre o el trabajo que se ha empezado a desarrollar por parte del CENATIC son el camino del futuro. El pasado año, preludio de esta crisis que nos amenaza y atenaza, no se realizó el SIMO, la feria de informática y tecnología con más tradición en España mientras que la OSWC (Conferencia Internacional del Software Libre) realizada en Málaga fue todo un éxito.

El camino parece claro, aunque algunos siempre estarán cegados por oscuros intereses.

– Photo ¿Quién dijo crisis? by seretuacciodente (CC Attribution-Noncommercial-Share Alike 2.0).

Empaquetando (II)

En primer lugar deciros que ya está disponible para descarga el primer paquete Debian de las Soluciones Andago, en este caso se trata de OpenGeoServices y podéis descargarlo aquí, y probarlo sobre Debian Etch, tras rellenar un pequeño formulario de registro. Cualquier comentario o problema que encontréis no dudéis en enviarmelo.

Mientras tanto he seguido depurando mis paquetillos y aprendiendo de los errores que voy cometiendo, así que voy a comentar un poco más sobre el proceso de empaquetado para dummies, como un servidor.

Un tema muy importante que debemos tener en cuenta a la hora de crear nuestro paquete es el proceso de actualización del mismo. Una vez que nuestro paquete ha sido distribuido y decidimos empaquetar una nueva versión, debemos dominar el proceso exacto de actualización de dicho paquete. Yo inicialmente pensaba que el paquete se actualizaba encima del anterior mientras que algunos compañeros apostaban porque primero se desinstalaba el anterior para dejar paso a la instalación del nuevo. Bueno pues el sitio correcto para comprobarlo era la página man de dpkg que nos indica cuál es el proceso de instalación de un paquete, y lo que ocurre si ya hay una versión anterior del mismo instalada.

dpkg -i | –install package-file…

La instalación consiste en los siguientes pasos:

1. Extraer los ficheros de control del nuevo paquete.
2. Si ya se había instalado otra versión del mismo paquete antes de la nueva instalación, se ejecuta el script prerm del viejo paquete.
3. Se lanza el script preinst, si el paquete dispone de uno.
4. Desempaquetamos los nuevos ficheros, y al mismo tiempo hacemos backup de los viejos, para que en caso de que algo vaya mal, puedan ser restaurados.
5. Si ya se había instalado otra versión del mismo paquete antes de la nueva instalación, se ejecuta el script postrm del viejo paquete. Tenga en cuenta que este script se ejecuta después del script preinst del nuevo paquete, ya que los nuevos ficheros se escriben al mismo tiempo que se borran los viejos.
6. Se configura el paquete. Consulta –configure para información detallada de cómo se realiza esto.

Así que el siguiente paso sería el de configure habitual:

dpkg –configure package …

La configuración consiste en los siguientes pasos:

1. Desempaquetes los ficheros de configuración, y al mismo tiempo hacer backup de los antiguos ficheros de configuración, de forma que puedan ser restaurados si algo va mal.

2. Lanzar el fichero de postinstalación, si el paquete dispone de uno.

Cómo se observa, se mezclan los scripts de desinstalación del paquete anterior y del nuevo, con lo que desde el principio debemos ser cuidadosos con este tema y tenerlo en cuenta para cuando lancemos una nueva versión del paquete.

Bueno y por ahora voy a dejar de empaquetar programas y empezar a empaquetar mi maleta porque desde esta tarde comienzan mis vacaciones. 😀

Empaquetando

Tranquilos que no estoy empaquetando mis cosas para irme a otro lado y ni siquiera este post es para contar que ya me queda poco para empaquetar la maleta rumbo a mis merecidas vacaciones en México. La historia va de que desde hace tiempo tenía una espinita clavada en mi espíritu Linuxero y es que nunca me había puesto a crear mis propios paquetes de Debian. Bueno pues las últimas semanas y cómo parte de uno de los objetivos del departamento de Arquitectura de Andago he estado empaquetando algunas cosillas con dos objetivos: facilitar la instalación de nuestros desarrollos a la hora de desplegar soluciones y por otro lado distribuir las versiones Comunity de nuestras soluciones.

En primer lugar indicar que aunque crear un paquete no es un proceso sencillo tampoco es la mar de complicado si tienes algo de experiencia en el funcionamiento de Debian. Por otro lado me quito el sombrero ante todos los desarrolladores de Debian que durante todo este tiempo nos permiten disfrutar de la mejor distribución del planeta, porque el trabajo de crear y mantener un paquete con la calidad exigida por Debian es una tarea complicada.

No voy a replicar aquí el proceso de creación de un paquete porque hay muchos manuales en internet sobre ello y porque me llevaría bastante tiempo, pero voy a hacer algunos comentarios… Como siempre para hacer un paquete lo mejor es fijarnos en los que ha echo otra gente, para ello podemos usar el comando apt-get source y aprender cómo está echo su fichero de control, sus scripts de post y pre instalación y borrado, etc… Podemos encontrar así muchos pasos que no se nos habrían ocurrido y que pueden ser interesantes, así cómo comprobar el proceso correcto de crear un usuario para dicho paquete, reiniciar servicios, etc…

También nos será de gran ayuda pasarle Lintian a nuestro paquete cómo parte del proceso de depuración del mismo. Lintian nos indicará muchos de los errores más comunes a la hora de empaquetar y también nos ayudará a seguir de una forma más adecuada la Debian Policy. Por ejemplo yo no conocía la existencia del comando mktemp para la creación de ficheros temporales y que es mucho más útil que implementarlo nosotros a mano.

Otra parte con la que estuve trasteando fue con el uso de Debconf para la iteración con el usuario a la hora de instalar y configurar el paquete. El sistema de templates que posee es bastante potente y muy versátil, además que es muy fácil integrarlo con los scripts de gestión del paquete. Aún así me costó un poco pillarle el tranquillo ya que a veces se quedaba colgado al hacer algunas cosas raras. Un apunte que me resultó bastante curioso en alguno de los manuales de Debconf es el que te indica que no debes usarlo cómo un registro unificado de configuración al estilo Guindows… señores que esto es un sistema Unix, me moría de la risa.

El proceso de construcción de tu propio repositorio es bastante sencillo y una vez que has depurado el paquete y está listo para probar e instalar es una gozada ver lo fácil que es instalar un programa con una sola línea mientras que antes necesitabas un manual de 50 páginas de pasos a realizar.

En cuanto termine de pulir alguno de los paquetes sobre los que he estado trabajando y estén listos para ser públicos os pasaré un link por si los queréis probar y/o depurar, mientras sigo empaquetando…

Charla de OpenLdap en la Carlos III

Otro año más comienzan las jornadas del grupo de usuarios de Linux de la Carlos III (gul-uc3m) y me he animado a colaborar de nuevo con ellos, esta vez con una charla sobre OpenLdap. En las jornadas del año pasado participé con una charla sobre Alta Disponibilidad y Balanceo de carga.

Habrá charlas durante todas las tardes de la semana (ver horarios) y finalizarán el viernes con la celebración del congreso del Gul en el que habrá charlas durante todo el día. Mi charla será el Martes 11 a las 18:00, así que si queréis aprender algo sobre OpenLdap pasaros por allí.

ACTUALIZACIÓN: La charla fue bastante interactiva y entretenida, tenía pensado no tomar mucho más de una hora y terminamos utilizando cerca de 2 horas y poco. La interacción con los asistentes fue constante e intenté resolver sus dudas y preguntas de la mejor forma posible.

Estoy bastante contento de las modificaciones que metí en la charla respecto a la que realicé en las Jornadas de Software Libre de Albacete ya que hacen el tema mucho más claro. Por ejemplo la primera parte explicando mejor que es un directorio, cuál es la estructura que se usa en Ldap, etc… pero especialmente el ejemplo de cómo utilizamos OpenLdap en Andago. Cuando observas cómo se integra la autenticación de más de 25 servicios tan variados cómo los sistemas de correo y web, subversion, trac, sugarcrm, openvpn, samba, opencms, egroupware o incluso los propios escritorios te das cuenta lo útil que puede ser tener un sistema de directorio basado en OpenLdap. El mejor ejemplo es calcular el tiempo que tardarías en dar alta un nuevo empleado en todas esas herramientas :D.

También podéis descargar la presentación openldap.odp que se libera con licencia Creative Commons Reconocimiento 3.0 España.

También realicé algunas demostraciones en vivo en la charla instalando OpenLdap, herramientas para gestionarlo cómo GQ o phpldapadmin y demostrando lo fácil que es utilizar la API de OpenLdap desde cualquier lenguaje de programación cómo en este sencillo script Perl de ejemplo. Lo que ya no me dio tiempo debido a la avalancha de preguntas fue a mostrar la integración pam-ldap que llevaba preparada.

Un saludo a toda la gente del GUL de la Carlos III y suerte con el congreso de hoy, pena que me marche a Santander de boda, sino me habría encantado compartirlo con vosotros.

Actualización: Añadidas las transparencias al post mediante slideshare.

Hackmeeting + OSWC: ¡viva Málaga!

Ya han pasado unos días desde que regresé de Málaga pero aún no me he recuperado del todo de las emociones que he vivido en esos días. Dos eventos increíbles en tan poco tiempo era una oportunidad que no podía perder y tras hacer lo imposible conseguí estar en los dos: Hackmeeting 0.8 y Open Source World Conference 2008.

Hace ya bastante tiempo que tenía ganas de asistir a algún Hackmeeting pero por A o por B nunca me había sido posible. Esta vez y aprovechando que enlazaba con la OSWC en la que Andago pondría un stand y que se podía aprovechar el viaje para hacer un 2×1 me lancé a asistir, además tras hablar con acs pillamos el hotel a medias con su correspondiente reducción de coste :D. Me encantó el ambiente del hackmeeting, esas ganas de colaborar entre todos para llevar a cabo el evento, charlar con la enorme diversidad de gente que asistía al evento, los nodos que se prepararon y la energía que se genera entre todos.

El CSOA de la casa invisible es encantador con su enorme patio, su tetería y todo el espacio para realizar las charlas y eventos. Al principio me sentí un poco extraño en un ambiente tan alternativa pero poco a poco te acoges a la dinámica y empiezas a pasarlo bien. Yo llegué ya por la noche, así que no pude estar en la manifestación, parodiando una misa de alabanza a root, que según me cuentan fue muy divertida y que luego se repitió en el pabellón de la OSWC unos días más tarde. Mi primer contacto fue con la asamblea general del Hackmeeting dónde me enteré mucho mejor de cómo funcionaba y se coordinaba la gente.

Ya al día siguiente, después de hacer un poco el cabra y de turismo por la playa, estuvimos trasteando un poco con Arduino, la verdad es que me sorprendió lo fácil que es hacer cosas con estas plaquitas y las muchas posibilidades que te ofrecen. Por la noche estuvo muy interesante la cena en un chino con acs y Mirian Ruiz dónde charlamos sobre Debian, licencias y forjas. Para más tarde, ya a altas horas de la madrugada, asistí a dos nodos sobre web semántica y las posibilidades que nos da el análisis de datos en la red que me despejaron completamente. Quizás, y fue un tema muy comentado, eché de menos más nodos de seguridad y demás temática hack, aunque la parte social del evento también me interesaba.

El domingo me tocó currar de lo lindo, ya que el lunes Andago liberaba Opencities 2.0 en la OSWC y había que hacer algunos retoques a los paquetes y demás así que no pude acercarme por la invisible a despedirme, un saludo a todos desde aquí. Aún así saqué un ratito para quedar a comer con mi colega Sean que me llevó a disfrutar de los chiringuitos malagueños.

Y por fin llegó el Lunes ya se abría la OSWC en la que Andago participaba cómo patrocinador y en la que desplegamos un stand y se impartían varias charlas sobre nuestras soluciones. La verdad es que de siempre me han encantado las ferias y me hacía ilusión participar en una desde dentro. La participación fue enorme y desde el primer día la gente abarrotaba los stands y las salas de conferencias.

En cuanto a las charlas me gustó bastante la de Tim O’Reilly aunque me decepcionó un poco que restara importancia a los logros que hemos conseguido ya en el software libre, minimizándolo frente otros logros y ensalzando el modelo de nube que se está generando ahora. Para mí algunos problemas que genera este nuevo modelo son la perdida de privacidad, la perdida de control sobre las aplicaciones, la imposibilidad para cualquier persona para reproducir el desarrollo de forma personal o corporativa (no todo el mundo tiene granjas de servidores) y que muchas de las soluciones no son libres, eso sí son muy cómodas y muy potentes pero entramos en el debate de siempre. Luego estuve un rato por las charlas de desarrollo con Arduinos cómo la de cuadrúpedos libres.

Una de las cosas que más pena me dio es volver a comprobar la imposibilidad de coordinación que hay entre administraciones públicas y demás estamentos. Antes se trataba de las distribuciones regionales en la que ha sido muy difícil llegar a reutilizar los esfuerzos de unas para las otras y ahora le toca el turno a la forjas. ¿Ya tienes tu propia forja en casa? Pues en la OSWC pudimos ver cómo empujando cada uno para un sitio se diluye el esfuerzo y oímos hablar de OSOR, VULCANO, el CTT y demás que vienen a unirse las que ya teníamos a nivel regional cómo las de Cataluña y Galicia, así cómo a la de rediris y otras internacionales cómo Sourceforge. Señores pongase de acuerdo y colaboren, ¿no va esto de eso? Ahí va otro ejemplo, en una charla del CENATIC afirman haber creado el primer directorio de empresas de fuentes abiertas de España… no sé si habría algún matiz de esos de abogado en la frase pero señores, estudien la historia que ya ha habido unas cuantas. Y sin olvidar cuando salen a la palestra las grandes empresas y se dedican a medirse los miembros… yo tengo más gente, yo tengo más desarrollos, yo tengo los más antiguos y yo los más bonitos. Muy bien señores, mientras favorezcan al software libre cuanto más tengan mejor para todos.

Me gustó bastante la tanda de charlas de virtualización OpenXVM, OpenVZ y ModularIT que confirman las grandes posibilidades que tiene el software libre en este campo cada día más extendido entre las empresas. Mientras que la otra cara de la moneda fue la charla de SUN supuestamente titulada: Glassfish + Mysql + Netbeans en la que se presentó un tipo a restregarnos toda su suite de software privativo (Vista + Powerpoint) y en la que se dedicó a mal bajarse el paquete de Netbeans y hacer una triste JSP con el asistente. A la próxima, por favor, titule la charla «Cómo hacer un JSP en 40 minutos» y se ahorrará mi presencia.

Me perdí la charla de los «gurús» y estoy esperando que la suban a la web del OSWC. Y por último estuve en una charla sobre asociaciones de empresas de Software Libre en la que presentaba la gente de Asolif y representantes de Amesol, que sería su versión Mexicana. Al terminar la charla me quedé un rato platicando con los cuates de Amesol y me dio mucho gusto ver que las cosas se mueven por allí también, quién sabe dónde puede acabar uno 😉 . Por último conseguí, tras una hora de cola, hacerme con mi certificado digital de la fábrica nacional de moneda y timbre, que hace tiempo quería conseguir pero nunca sacaba tiempo para hacer el trámite.

En definitiva me encantó la OSWC y creo que estos eventos dan un gran impulso al Software Libre a todos los niveles: institucional, empresarial y personal, mi enhorabuena a los organizadores. Quizá la única pega que se produce al haber tanta gente es que es más difícil el consabido «networking», es decir conocer gente interesante, charlar, hacer negocios, etc… cosa que creo que en el congreso Hispalinux del año anterior era algo más cercano.

Una pieza que faltaba: El Sistema de Integración

Bueno ya llevo mis primeras semanas dedicadas al tema de Arquitectura de Plataforma y sumergiéndome en el mundillo del desarrollo Java, aunque sea desde el punto de vista no ya del desarrollador sino de la gestión de sistemas y la organización de proyectos. El primer punto en el que queríamos focalizar los esfuerzos es en la gestión de entornos: desarrollo, pre-producción y producción y el paso que realizan los proyectos a través de estos.

Primero describir el escenario inicial: existen diversos grupos de desarrolladores trabajando en varios proyectos, muchos de ellos interelacionados entre si. Este proceso de desarrollo muchas veces se realiza en la propia máquina de los desarrolladores y se va subiendo a un repositorio común, en nuestro caso subversion. El problema aparece cuando se intenta llevar una versión a producción y esto se hace desde el equipo de algún desarrollador, por lo que en muchos casos ese código ni ha subido aún al subversion, se tienen instaladas librerías o versiones del JDK que no se corresponden con las que hay en producción, no queda registrada que versión pasa a producción y cuál había, otras veces el proyecto se compila dentro de la máquina de producción, etc… es decir, en el caso de un desarrollo ya medianamente grande se va creando un pequeño/gran caos.

Para solucionar este problema hemos desarrollado el siguiente esquema de funcionamiento en el que encontramos una pieza clave: el servidor de integración.

Todas las «piezas» que se quieran pasar a producción deberán ser construidas en este servidor de integración y además siempre se obtendrán todos los elementos necesarios para la construcción del sistema apartir del control de versiones.

Con ello matamos varios pájaros de un tiro:

– Tendremos controlada la versión de los proyectos desplegados, sobretodo si generamos un Tag de subversion tras la compilación correcta.
– El entorno de construcción está controlado, siempre se usará la misma versión de la máquina virtual, librerías, etc… y nos aseguraremos que en producción dispongamos de ese mismo entorno.
– No requeriremos de compiladores ni dependencias de ese tipo en los entornos de producción, cosa que es altamente recomendable por motivos de seguridad.
– Los desarrolladores ya no tendrán acceso a las máquinas de producción, simplemente tendrán que solicitar una nueva compilación de su proyecto al servidor de integración y los encargados de sistemas lo pasarán a pre-producción y una vez probado a producción.

Buscando alguna interfaz que nos permita hacer más amigable el proceso de compilación de proyectos en una máquina remota me he encontrado con los llamados servidores de integración continua, a los que dedicaré un post individual, pero que nos pueden facilitar enormemente esta tarea además de darnos algunas ventajas adicionales.

Por otro lado hemos descubierto que no debemos basarnos únicamente en los elementos ejecutables que pasan a producción, sino que en muchos casos habrá que hacer subidas también de datos requeridos para el funcionamiento de la aplicación: modificaciones a las bases de datos o al LDAP o directorios con ficheros necesarios. Estos objetos se empaquetarán junto con la consiguiente nueva versión del proyecto y deberán gestionarse de forma paralela a este, tanto en versionado cómo en su posterior subida a producción.

Finalmente otra gran ventaja la encontramos al disponer de entornos de pre-producción para cada proyecto que nos permitan probar las nuevas versiones de las aplicaciones antes de pasar a producción. Una buena infraestructura de virtualización nos puede ser de gran ayuda en esta parte ya que nos va a permitir tener multiples entornos dentro de un mismo servidor compartiendo recursos.

Arquitectura de plataformas

Al hilo de mi último post sobre el curso de JBoss y demás quería hablar sobre mi nueva dedicación dentro de Andago: la creación de un departamento de arquitectura de plataforma o arquitectura de sistemas, todavía no está decidido el nombre, aunque el logo podría ser algo así:

Para comprender este paso hay que tener en cuenta el cambio de orientación que ha tenido Andago en los últimos años: pasando de trabajar más en el area de sistemas y Linux propiamente dicho a abrirse al mundo del desarrollo de soluciones abiertas para la administración y al impulso de una fuerte política de I+D en este area. Esto ha probocado que la tortilla dé de alguna manera la vuelta y que el mayor crecimiento se haya producido en el area de desarrollo, tanto en personal cómo en proyectos que se llevan a cabo. Llegados a este punto uno se pregunta si aún quedará trabajo para un jefe de proyecto especializado en el area de sistemas cómo es mi caso.

Y la respuesta es que hay muchísimo trabajo por hacer a la hora de mejorar las plataformas y sistemas que alojarán las soluciones que salen del horno de la sección de desarrollo y muchos de los procedimientos a través de los cuales se está trabajando en este momento. Así que el departamento de arquitectura será un elemento transversal a la compañía y separado del departamento de sistemas y soporte que afectará a todas las areas de trabajo.

Algunos de los objetivos que nos estamos fijando son los siguientes:

– Unificación de soluciones sobre un marco común que las haga interoperables y compatibles entre sí,
– Paquetización de productos tanto para facilitar el trabajo a los equipos de desarrollo cómo para su posterior distribución en el mercado.
– Definición de políticas de entornos para que todo proyecto disponga de sus correspondientes entornos de desarrollo, pre-producción y producción y guías de cómo se debe pasar entre ellos.
– Dotar a las plataformas de alta disponibilidad y balanceo de carga.
– Mejora de la seguridad de las soluciones.
– Pruebas de carga y mejora de rendimiento de las plataformas.

Y muchas más que nos irán surgiendo… aquí os dejo un mapa conceptual que hecho con Freemind (herramienta que nos recomendó acs y de la que me he convertido en un gran fan):

Además siguen surgiendo muchos proyectos de sistemas y de redes inalambricas metropolitanas que irán surgiendo y con los que tendré el gusto de lidiar, pero ya os iré comentando más cosas. Por otro lado si el proyecto de Arquitectura de plataformas te ha resultado interesante y tienes conocimientos de Linux y servidores de aplicaciones (preferentemente JBoss/Tomcat) estamos buscando gente cómo tú (mandame tu curriculum a través del formulario de contacto de esta mísma página web).

Jboss for administrators

La semana pasada asistí al curso JB336: Jboss for administrators que impartía la gente de Red Hat. Las sensaciones han sido bastante satis satisfactorias y he aprendido bastante por lo que quería hacer un post sobre el tema.

Lo primero que me llamó la atención del curso y lo que me llevó a solicitar a mi empresa que me inscribiera fue su orientación hacia la administración y no tanto hacia el desarrollo. Llevamos algunos meses buscando un experto en servidores de aplicaciones sin éxito con lo que decidimos impulsar el conocimiento dentro de la propia empresa y este curso venía cómo anillo al dedo.

Este es el segundo curso que hago con la gente de RedHat, el primero fué el de certificación RHCE, y en ambos casos he acabado bastante satisfecho, eso sí cómo siempre lo bueno sale caro, pero al final terminas amortizándolo a el largo plazo con la mejora que puedes aplicar a tu trabajo con un conocimiento orientado en la dirección correcta.

De toda la vida he sito muy contrario a la filosofía JAVA y a todo lo que la rodea optando siempre por otras alternativas, pero su amplía difusión me ha llevado a tener que lidiar con ella finalmente y espero que esta nueva amistad tenga un final feliz.

El primer día de curso me pareció un tanto teórico pero me ayudó a afianzar muchos conceptos del mundo JAVA y de los servidores de aplicaciones que tenía algo entremezclados. Pero a partir del segundo día nos pusimos a darle caña al servidor profundizando en temas interesantes cómo los procedimientos de despliegue de aplicaciones, temas de rendimiento y tunning, balanceo de carga y alta disponibilidad, seguridad, etc… La arquitectura de JBoss es bastante flexible y extremadamente potente con lo que nos va a permitir muchas posibilidades a la hora de ponerlo en producción.

Por último comentar que he vuelto a reafirmar mi posición respecto a lo increíble que es recibir formación de gente experta en un tema que ha tenido que lidiar con ella en entornos de producción y que sabe muy bien de lo que está hablando frente a la formación académica que se recibe en muchos casos en la Universidad por un profesor que acaba de leer algo sobre el tema en un libro. Quizás por eso el formato muchas veces está cambiando y en muchos master las asignaturas no las imparte un único profesor sino que traen a expertos en la materia para bien de sus alumnos.