jueves, 3 de noviembre de 2011

BI USABILITY: evolución y tendencia

Buenas. Hace unos meses Jorge Fernandez (director de Consultoría en BI de Abast Systems) nos comentaba que había sido convocado como editor invitado de la revista Novatica, a la vez que nos proponía que escribiésemos una monografía sobre algún tema de BI para esta revista.
Demás esta decirles el honor que significó para nosotr@s (eGlu BI) esta convocatoria, así que sin más seleccionamos el tema "Usabilidad" y emprendimos marcha en la redacción del artículo.

La revista puede descargarse libremente siguiendo este enlace...
Y nuestro artículo puede leerse online desde Dataprix...


Agradecemos a tod@s nuestr@s colegas con quienes compartimos las páginas de Novatica, a Jorge Fernandez y a Llorenç Pagés Casas (coordinador editorial); también a Andrea Martino por su colaboración en cuanto al estilo de redación y a W. Zach Wolff por la traducción al inglés de este artículo para la revista Upgrade.

A continuación les dejamos un pequeño resumen de lo que trata la monografía:
Este artículo inicialmente nos introduce en los conceptos de usabilidad y Business Intelligence, para luego definir BI Usability. Seguidamente, presenta un gráfico histórico con los hitos más significativos, que son antecedentes de lo que en la actualidad se conoce como sistemas BI. Luego, se sistematizan estos hitos, década por década, teniendo en cuenta por un lado, la evolución/innovación en los sistemas de información BI y por el otro destacando la usabilidad de esa época. Finalmente, describe y traza la forma en que el BI Usability se fue desarrollando a través del tiempo, y señala tendencias en cuanto a usabilidad.

Esperamos sea de su agrado.
Salud

viernes, 16 de septiembre de 2011

Pentaho Data Integration 4 Cookbook: Reseñas

Buenas.
Luego de un par de semanas de lectura y prueba, he concluido la lectura de Pentaho Data Integration 4 Cookbook, a continuación las reseñas:

1) Reseña general: este nuevo libro de Maria Carina Roldan se compone básicamente de muchas recetas que resuelven todo tipo de problemas con los que nos podemos (y de hecho es así) encontrar en situaciones reales. El libro agrupa las recetas por temáticas, brinda ejemplos muy ingeniosos y cuenta con explicaciones muy sencillas, pero de gran calibre.
Este libro es un complemento ideal a la hora de implementar soluciones PDI, ya que el "cómo se hace/hacía tal cosa?" se resuelve inmediatamente.

2) Reseña detallada: las temáticas abarcadas por este recetario son bastante variadas y cubren un gran abanico de situaciones/problemas. Ellas son:
  • Bases de Datos (conexión, obtener datos, insert, update, delete, etc).
  • Archivos (lectura, escritura, no estructurados, distintos tipos de archivos, etc).
  • Estructura XML (manipulación, lectura, XPath, DTD, XSD, XSL, etc).
  • Administración de archivos (copiar, mover, borrar, comparar, zipear, etc).
  • Búsqueda de datos (en base de datos, por proximidad, en web service, en internet/intranet, etc).
  • Flujos de datos (divisiones, uniones, comparaciones, filtros, condiciones, etc).
  • Ejecución de Transformaciones y Trabajos (argumentos, parámetros, ejecución dinámica, subtransformaciones, etc).
  • Integración de PDI con la Suite Pentaho (PRD, xactions, CDA, CDF, etc).
  • Varias (e-mails con adjuntos, archivo log, customización, JSON, etc).
Definitivamente este recetario no es para principiantes, sino que esta enfocado a quienes ya tienen experiencia en PDI.

3) Reseña final: Pentaho Data Integration 4 Cookbook es un libro totalmente recomendable para quienes deseen profundizar más acerca de PDI, pero también para quienes trabajamos con PDI a diario. Y les aseguro que luego de leer este libro volveremos a buscar mucho más que una receta!


Buen provecho!

lunes, 18 de julio de 2011

Leyendo Pentaho Data Integration 4 Cookbook

Buenas.
Hace unos días he recibido el libro Pentaho Data Integration 4 Cookbook, gracias a Richard Dias (Packt Publishing) y a Maria Carina Roldan (co-autora).


Según cuenta Maria Carina en su blog, "...Es un libro para leerlo mientras se va aprendiendo con la computadora. El Cookbook es un libro de consulta para tenerlo a mano siempre que estamos desarrollando. En algún momento tenemos una duda (cómo hago para adjuntar este archivo?, cómo paso datos de una transformación a otra?, etc.). Y ahí está el libro, siempre con una receta lista para ayudarnos a resolver esa duda o problema...".


Así que en las próximas semanas estaré probando las recetas con mi propia cuchara (spoon) y ya les contaré más.

Saludos.

martes, 7 de junio de 2011

Mapeo de Roles Mondrian en Pentaho

Buenas. Acabo de realizar este video tutorial en donde se llevan a cabo las siguientes acciones:
  • Mediante PSW (Pentaho Schema Workbench) añadir un rol con determinadas restricciones.
  • Publicar el schema y refrescar la caché de mondrian.
  • Desde PUC (Pentaho User Console) crear un nuevo análisis interactivo: "test roles".
  • Abrir PDS (Pentaho Design Studio) y seleccionar "test roles":
    • añadir una variable de entrada que traiga el nombre del user que esta logueado actualmente.
    • crear un proceso de acción que mapee nombres de users con roles mondrian.
    • asignar al proceso de acción que ejecuta el análisis interactivo, como parámetro el rol mondrian en cuestión.
  • Test.
A continuación algunas imágenes:


Saludos

miércoles, 1 de junio de 2011

Crear Parámetros en PRD (Pentaho Report Designer)

Buenas. Acabo de realizar este video tutorial en donde se llevan a cabo las siguientes acciones:
  • Abrir nuevo reporte.
  • Diseñar un reporte sencillo.
  • Crear un parámetro de entrada que obtenga el año a analizar.
  • Modificar la consulta inicial para que tome el valor del parámetro seleccionado: "anio=${anio}".
  • Test.
A continuación algunas imágenes:

Saludos

lunes, 18 de abril de 2011

Curso presencial OSBI Pentaho, Argentina-Córdoba

Buenas.

A partir del día 3 de mayo, hasta el 14 de junio de 2011, estaremos dictando en el Instituto Universitario Aeronáutico el curso OSBI Pentaho.

Temas a tratar:

  • Inteligencia de Negocios.
  • Software Libre, Open Source.
  • Data Warehousing.
  • Suite Pentaho.
  • MySQL, JDBC, JNDI.
  • Data Integration (Kettle).
  • BI Server.
  • Mondrian.
  • JPivot.
  • Metadata Editor.
  • Reportes ad hoc.

Ver folleto completo...

Para obtener más información y/o para inscribirse nos pueden escribir a:


Saludos.

lunes, 11 de abril de 2011

Publicar Schemas/Cubos con PSW en Pentaho

Buenas. Acabo de realizar este video tutorial en donde se llevan a cabo las siguientes acciones:
  • Descargar e Instalar PSW (Pentaho Schema Workbench).
  • Configuración de drivers en PSW.
  • Ejecutar PSW y crear conexión con nuestro Data Warehouse.
  • Mostrar cómo crear schema y abrir un Schema propio.
  • Cambiar password de publicación en Pentaho.
  • Crear JNDI desde PAC (Pentaho Administration Console).
  • Crear carpeta de solución en Pentaho.
  • Publicar con PSW el Schema en Pentaho.
  • Probar en PUC (Pentaho User Console) el schema publicado.
A continuación algunas imagenes:


Saludos

miércoles, 6 de abril de 2011

Pentaho Kettle Solutions: Reseñas

Buenas..
Acabo de concluir la lectura de Pentaho Kettle Solutions. Este libro tan extenso como interesante, me ha llevado más tiempo de lectura de lo que había pensado, pero también me ha sorprendido con la calidad de su contenido y la diversidad de temas que abarca.

A continuación las reseñas:

1) Reseña general: es un libro muy ameno de leer, que profundiza muchos temas complejos manteniendo explicaciones sencillas de entender. Lo más destacable de este libro, es que ha sido escrito por profesionales que han trabajado con PDI (a.k.a. Kettle) durante muchos años, realizando numerosos aportes e incluso que han llevado a cabo su desarrollo (en el caso de Matt Casters). Es decir, hay una brecha muy grande entre conocer para qué sirve un 'paso', y saber por qué se creó ese 'paso'; y esta diferencia se nota por doquier en este libro.

Aunque Pentaho Kettle Solutions no esta pensado para principiantes, es ideal para cualquier persona que este trabajando con PDI actualmente o que desee hacerlo en un futuro, ya que cubre temáticas que son de vital importancia tenerlas en mente al momento de emplear esta herramienta.


2) Reseña detallada: este libro inicia con una introdución acerca de los ETL y las particularidades que debería tener una herramienta ETL; luego presenta Kettle y describe sus características, cómo instalarlo y ejecutarlo, y cómo está diseñado, es decir, detalla sobre Transformaciones, Trabajos, Saltos, tipos de datos, tipos de repositorio, párametros, variables, etc.

Seguidamente plantea ejemplos para tomar los datos de una base de datos transaccional y cargar un Data Warehouse, abordando temas complejos relacionados con dimensiones lentamente cambiantes, detección de cambios en los datos (CDC - Change Data Capture), desnormalización, etc.

Sigue con la explicación de los 34 subsistemas del proceso ETL definido por Ralph Kimball, para luego abordar cada subsistema desde Kettle, haciendo énfasis en la forma en que éste resuelve cada situación y ejemplificando en cada caso. Las temáticas cubiertas a destacar son las siguientes:
  • Ejecución de Trabajos, backtracking, en paralelo, con Slave servers (mediante Carte).
  • Ejecución de Transformaciones multi-thread, distribución de filas, clustering y manejo de particiones en transformaciones.
  • Conexiones a bases de datos: opciones generales y avanzadas, pooling, clustering, manejo de conexiones y transacciones.
  • Performance y escalabilidad.
  • Extracción de datos, Data Profiling (utilizando DataCleaner), CDC.
  • Data Cleasing, manejo de los diferentes tipos de errores, auditorias, datos duplicados, scripting.
  • Manejo de claves, carga de tablas de dimensión (esquema copo de nieve y en estrella), implementación de diferentes tipos de tablas de dimensión.
  • Diferentes tipos de tablas de hechos, Bulk Load, carga y manipulación.
  • Extraer datos desde diversas tecnologías OLAP.
  • Ciclo de vida de desarrollo de ETLs, buenas y malas prácticas, desarrollo agil, test, debug y documentación.
  • Scheduling (cron, at, xaction, PDS y Pentaho) y monitoreo.
  • Utilización de Clusters dinámicos (Amazon EC2).
  • Integración de datos en tiempo real.
  • Manipulación de formatos de datos complejos (no relacionales, no estructurados).
  • Empleo de Web Service, ejemplos de XML, SOAP y RSS.
Ya llegando al final se detalla cómo obtener y compilar Kettle, cómo utilizar Kettle Java API a través de ejemplos, y cómo extender Kettle desarrollando plugins propios!

Pentaho Kettle Solutions aborda la integración de datos (los 34 subsistemas) en su totalidad y sistematiza gran cantidad de conceptos, ejemplos, buenas prácticas, cuestiones de diseño y performance, lo cual lo hace una opción enteramente recomendable para quienes pertenecemos al mundo BI, como para quienes necesiten realizar algún tipo de integración de datos.


3) Reseña final: sin duda, este es otro libro de indispensable lectura, ya sea que se este trabajando con Pentaho, implementando soluciones BI o sistemas transaccionales. Debido a que la integración de datos abarca muchos tópicos y resuelve muchas situaciones que están presentes en cualquier empresa/organización que posea sistemas transaccionales, sistemas BI, utilice SGBD o simples hojas de cálculo.


Salud.