lunes, julio 28, 2014

Pentaho Analytics for MongoDB - Review

Estimad@s,

hace unos días comencé con la lectura de Pentaho Analytics for MongoDB, se trata de un libro escueto pero conciso, en el cual se muestra como acceder y explotar datos desde la base de datos documental Mongo DB utilizando características de la suite Pentaho EE. El autor del libro es Bo Borland.



Este libro fue editado por Packt Publishing aquí y también está disponible como White Paper en la página de Pentaho aquí.

El material nos guía partiendo de la instalación de Mongo DB y Pentaho como así también de la base de datos de ejemplo. Luego, el autor,  hace una breve introducción a Mongo DB, sus características y muestra algunos ejemplos de como consultar y trabajar con los datos almacenados.

Luego, utilizando Pentaho Instaview (característica de la versión EE) , se configura como fuente Mongo DB y se muestra como visualizar inmediatamente los datos.
Más tarde se sigue ahondando en Instaview, siempre desde PDI, para crear análisis (usando mapas, entre otros) desde fuentes de datos heterogéneas.
Una de las partes más interesantes es cuando se sigue trabajando con Instaview para crear modelos multidimensionales, realmente la herramienta permite hacerlos en pocos minutos y explotarlos inmediatamente.

El libro continúa haciendo una breve introducción a PRD para luego crear un reporte que obtiene datos desde Mongo DB. Poco a poco se adorna el reporte hasta obtener uno con gráficos y una presentación excelente.

Finalmente, el autor, hace una introducción a la consola de usuario de Pentaho (PUC) y luego muestra como desplegar los reportes y análisis en PUC desde las diversas herramientas.

Mi apreciación personal:
Si bien gran parte del libro requiere disponer de la versión EE de Pentaho (la que se puede descargar en versión de prueba de 30 días) en muchos casos lo que se explica se puede realizar con herramientas de la versión CE. Las explicaciones son muy claras y puntuales, no dejan dudas respecto de lo que se quiere exponer. Vale la pena aclarar que se utilizan las versiones de Pentaho y Mongo DB para Window$ de 64 bits.

Espero les sea de utilidad.

Saludos

Mariano

jueves, julio 03, 2014

Packt Cumple 10 Años!

Packt cumple 10 años y lo festeja dando la posibilidad de adquirir cualquier libro o video a tan solo US$ 10.



Más información aquí.

Saludos

Mariano

lunes, junio 23, 2014

Building Hadoop Clusters [Video] - Review (en español)

Estimad@s,

una vez más se trata de una review de un video curso publicado por Packt Publishing. En este caso les haré un comentario sobre "Building Hadoop Clusters" cuyo autor es Sean Mikha.



En este curso Sean explica con lujo de detalle como configurar correctamente un cluter Hadoop en la nube de Amazon. Parte de una explicación sumamente detallada de las opciones del tablero de Amazon (configuración de instancias, opciones de red y seguridad) y luego la instalación y configuración propiamente dicha. También explica como chequear conectándonos desde diversos clientes.
Una vez que se ha instalado Hadoop, nos muestra como se ponen en juego los diversos servicios y el rol que cumple cada uno, siempre agregando tips y recomendaciones. En la parte final nos muestra el sistema de almacenamiento y procesamiento de Hadoop y finalmente la instalación y puesta en marcha de Apache Hadoop User Interface (HUE).


Como resumen diré que el curso es muy minucioso y vale la pena, recomiendo que el interesado lea algo de big data, Hadoop y computación en la nube antes de hacer este curso. Procesar y almacenar grandes cantidades de datos ya no es una opción para medianas y grandes empresas, no hay mucho material de referencia como el que se presenta en este curso, por ello lo recomiendo.

Aquí una vista previa del curso: https://www.youtube.com/watch?v=uXitqC7eQXk


Esta es la tabla de contenidos del curso:

Deploying Cloud Instances for Hadoop 2.0
  • Introduction to the Cloud and Hadoop 
  • Deploying a Linux Amazon Machine Image 
  • Setting Up Amazon Instances 

Setting Up Network and Security Settings
  • Network and Security Settings Overview 
  • Identifying and Allocating Security Groups 
  • Configuration of Private Keys in a Windows Environment 

Connecting to Cloud Instances
  • Overview of the Connectivity Options for Windows to the Amazon Cloud 
  • Installing and Using Putty for Connectivity to Windows Clients 
  • Transferring Files to Linux Nodes with PSCP 

Setting Up Network Connectivity and Access for Hadoop Clusters
  • Defining the Hadoop Cluster 
  • Setting Up Password-less SSH on the Head Node 
  • Gathering Network Details and Setting Up the HOSTS File 

Setting Up Configuration Settings across Hadoop Clusters
  • Setting Up Linux Software Repositories 
  • Using the Parallel Shell Utility (pdsh) 
  • Prepping for Hadoop Installation 

Creating a Hadoop Cluster
  • Building a Hadoop Cluster 
  • Installing Hadoop 2 – Part 1 
  • Installing Hadoop 2 – Part 2 

Loading and Navigating the Hadoop File System (HDFS)
  • Understanding the Hadoop File System 
  • Loading and Navigating the Hadoop File System 
  • Ambari Server and Dashboard 

Hadoop Tools and Processing Files
  • Hadoop Tools and Processing Files 
  • Installing HUE 
  • Using HUE 


Espero les sea de utilidad el comentario.

Saludos

Mariano

viernes, junio 13, 2014

Building an Application with CoffeeScript [Video Serie] - Review (en español)

Estimad@s,

durante esta semana he tenido la oportunidad de revisar un buen material sobre CoffeeScript, se trata de la serie de videos "Building an Application with CoffeeScript" publicado por Packt Publising  y cuyo autor Darko Bozhinovski vuelca su experiencia en este curso.

Pueden ver una demo aquí.

El curso tiene una duración aproximada de 1 hora y 40 minutos, en los cuales no solo aprenderemos las particularidades de CoffeeScript sino también a crear una aplicación funcional, si bien es necesario poseer conocimientos de javascript, no es requisito que los conocimientos sea profundos, el autor va introduciendo de a poco al espectador en la programación y buenas prácticas.

Si bien no llega a un nivel avanzado (difícil en el tiempo que dura el curso), lo que obtendrá el espectador es una muy buena idea de como llevar adelante la construcción de una aplicación utilizando CofeeScript y tecnologías de punta, sumado a ello, el autor insiste en las buenas prácticas de la programación apoyado siempre en la documentación.

Particularmente, me ha resultado de mucha utilidad, me ha parecido un buen curso, los contendidos son expuestos de forma muy clara y con la cadencia adecuada. Los ejemplos son claros y concretos.

Recomiendo este video curso.

El contenido completo del video curso es:

CoffeeScript 101 [13:33 minutes]
  • A Taste of CoffeeScript
  • Concepts and Usage
  • Tools and Extras
Head-first Application Development [13:52 minutes]
  • Basics of Object-oriented Programming
  • MVC and Using It in Our Project
  • Inheritance and Keeping Classes Simple
The Storage Layer – Models and Data Persistence [14:12 minutes]
  • Models and Storage Basics
  • Models in Our Application
Routing and Views [12:23 minutes]
  • Introduction to Routing, Controllers, and Views
  • Routing and Controllers
  • The View Layer
Interactions and Event Handling – Using JQuery with CoffeeScript [11:24 minutes]
  • Local Events
  • Global Events
Extending Our Application – Manipulating Stored Data [13:07 minutes]
  • Organizing Application Data
  • Extending the Document Classes
  • Making Our App More Usable
Extending Our Application – Add an External Library [11:10 minutes]
  • Adding External Libraries
  • Modifying Our App for Rich Text Editing
  • Exporting Our Documents to PDF
Publishing and Real-world Usage for Our Documents [11:01 minutes]
  • Using Our Documents Offline
  • Publishing Files
  • What's Next?
Saludos

Mariano

sábado, mayo 31, 2014

Building a Data Mart with Pentaho Data Integration [Video Serie] - Review (en español)

Estimad@s,

A veces no dejo de sorprenderme, a sido el caso de los últimos dos video cursos que he tenido la posibilidad de revisar, en el caso anterior sobre Pentaho Reporting y en este caso un video curso sobre como construir un DataMart que contiene un modelo en estrella siguiendo los preceptos de Ralph Kimball. Este video curso fue creado por Diethard Steiner, persona a la cual respeto de forma particular por la seriedad y calidad de sus publicaciones. Con este video curso Diethard ha demostrado una vez más su profesionalismo.

Este video lo ha publicado Packt Publishing y se encuentra en este link.

Disponen de una vista previa aquí.

La suma de todos los videos es de aproximadamente 2 horas.

Diethard nos guía paso a paso en la construcción de un Datamart utilizando en cada momento las herramientas adecuadas y profundizando lo justo en cada caso, sumado a ello una explicación excelente y una cadencia muy oportuna en la presentación. El curso es extremadamente dinámico y es muy recomendable para aquell@s que deseen asentar sus conocimientos sobre la temática y para aquellos que quieren introducirse en el tema. El valor agregado es que además de explicar cada concepto, se lo lleva a la práctica con la herramienta adecuada.

Realmente recomiendo este curso.

Felicitaciones Diethard!

Indice del curso:


Getting Started [18:25 minutes]
  1. The Second-hand Lens Store Sample Data
  2. The Derived Star Schema
  3. Setting up Our Development Environment

Agile BI – Creating ETLs to Prepare Joined Data Set [12:27 minutes]
  1. Importing Raw Data
  2. Exporting Data Using the Standard Table Output Step
  3. Exporting Data Using the Dedicated Bulk Loading Step

Agile BI – Building OLAP Schema, Analyzing Data, and Implementing Required ETL Improvements [11:29 minutes]
  1. Creating a Pentaho Analysis Model
  2. Analyzing the Data Using the Pentaho Analyzer
  3. Improving Your ETL for Better Data Quality

Slowly Changing Dimensions [17:03 minutes]
  1. Creating a Slowly Changing Dimension of Type 1 Using the Insert/Update Step
  2. Creating a Slowly Changing Dimension of Type 1 Using Dimension Lookup Update Step
  3. Creating a Slowly Changing Dimension Type 2

Populating Data Dimension [16:10 minutes]
  1. Defining Start and End date Parameters
  2. Auto-generating Daily rows for a Given Date Period
  3. Auto-generating Year, Month, Day and so on.

Creating the Fact Transformation [14:28 minutes]
  1. Sourcing Raw Data for Fact Table
  2. Look up Slowly Changing Dimension of the Type 1 Key
  3. Look up Slowly Changing Dimension of the Type 2 key

Orchestration [10:29 minutes]
  1. Loading Dimensions in Parallel
  2. Creating Master Jobs

ID-based Change Data Capture [9:46 minutes]
  1. Implementing Change Data Capture (CDC)
  2. Creating a CDC Job Flow

Final Touches: Logging and Scheduling [11:14 minutes]
  1. Setting up a Dedicated DB Schema
  2. Setting up Built-in Logging
  3. Scheduling on the Command Line

viernes, mayo 30, 2014

MANUAL PARA LA SOLUCIÓN DE ERRORES EN LAS HERRAMIENTAS XAMPP, PENTAHO Y SAIKU.

Estimad@s,

en este caso publicaré un material que no es mio, pero que considero de muy buena calidad, además que a much@s de ustedes les puede ser de gran ayuda.

Se trata de un articulo en el cual se instalarán paso a paso las aplicaciones que se listan en la Figura 1, además de contener el detalle de despliegue y configuración inicial, se realiza un reporte de posibles errores y sus respectivas soluciones, a mi criterio es el último punto el valor agregado más grande de este documento.

Figura 1

El productor del articulo es Ivan Felipe Molano Ardila (ivanfelipe@outlook.com) asesorado por Andrés Camilo Ramirez Gaita (a_kmilo@hotmail.es) ambos pertenecientes a la Facultad de Matemáticas e Ingenierías de la Fundación Universitaria Konrad Lorenz.

El material se descarga desde este link.

Espero que les sea de utilidad.

Saludos

Mariano

martes, mayo 13, 2014

Pentaho Reporting [Video] - Review (en español)

Estimad@s,

en este caso expondré de forma resumida mis apreciaciones acerca del video curso de Pentaho Reporting (PRD) desarrollado por Francesco Corti que es un gran contribuyente a la comunidad Pentaho.

En términos generales diré que el curso es de poco más de una hora y media, está dividido en pequeños videos de unos 3 a 4 minutos cada uno, cada video toca un tema en particular y lo hace de forma muy sintética y va directo al grano, sin rodeos.
El hecho de ir directamente al punto es una ventaja y desventaja al mismo tiempo, es ventajoso para los que de alguna forma tenemos práctica con PRD, Pentaho Data Integration (PDI) y Java, ya que no requerimos ver cada detalle, pero para aquellos que no tienen práctica previa, deberán detener continuamente el video.
Los ejemplos desarrollados son simples y concretos, eso facilita el aprendizaje, por otro lado la narración es muy buena, el inglés es clarísimo, aunque de vez en cuando cambia el todo.
El sistema de navegación del curso es claro y bastante cómodo, se basa en una interfaz web.
Todos los ejemplos desarrollados en el curso, están disponibles para descargar, por ello la persona que toma el curso, no debe preocuparse por tipear o seguir cada paso.

En detalle el curso consta de:

Getting Started with Pentaho Reporting [15:57 minutes]
  1. Installing Pentaho Reporting 
  2. Loading and Saving Reports and Having a Preview 
  3. Building a Report Using the Report Wizard 
  4. Building the 'My First Report' 
  5. Customizing the 'My First Report' 
  6. Advanced Customization on the My First Report 

Dive Deeper into the Pentaho Reporting Engine's XML and Java APIs [11:44 minutes]
  1. Setting the Java Development Environment 
  2. Embedding a Pentaho Report in an Enterprise Web Application 
  3. Embedding a Pentaho Report in a SWING Application 
  4. Introducing Serialized Reports 
  5. Building a Report Using Pentaho Reporting’s Java API 

Configuring the JDBC Database and Other Data Sources [12:43 minutes]

  1. Configuring Your Data Source to a DBMS Using JDBC 
  2. Configuring Your Data Source to an OLAP Engine (Mondrian) 
  3. Configuring Your Data Source to an XML File and a Table 
  4. Configuring Your Data Source to Metadata and PDI 
  5. Working with Data Sources in Java 

Introducing Graphic Chart Types – Pie, Bar, Line, and Others [10:36 minutes]

  1. Incorporating a Line Chart into a Pentaho Report 
  2. Incorporating Supported Charts and Common Properties 
  3. Incorporating and Customizing Charts into a Report 
  4. Incorporating Images into a Report 

Modifying Reports Using Parameters and Internationalization [11:14 minutes]

  1. Parameterizing a Pentaho Report 
  2. Parameterizing a Pentaho Report Using Java 
  3. Working with Functions and Expressions 
  4. Working with Formulas 
  5. Internationalization and Localization of Pentaho Reports 

Adding Subreports and Cross Tabs in Your Reports [09:52 minutes]

  1. Adding a Multi-page Subreport in a Pentaho Report 
  2. Parameterizing and Adding Chart Subreport in a Pentaho Report 
  3. Adding a Side-by-Side Subreport in a Pentaho Report 
  4. Adding Cross Tabs in a Pentaho Report 

Building Interactive SWING and HTML Reports [12:29 minutes]

  1. Building Interactive Reports in SWING 
  2. Building Interactive Reports in HTML 

Using Pentaho Reporting in the Pentaho Suite [13:10 minutes]

  1. Using Pentaho Reporting with Pentaho Business Intelligence Server 
  2. Using Pentaho Reporting with Pentaho Data Integration (Kettle) 

Como podrán observar, toca una diversidad importante de temas, algunos de ellos no triviales, pero por demás interesantes.

Personalmente, me ha gustado y he disfrutado de este curso. "SIEMPRE SE APRENDE ALGO NUEVO!"
Recomiendo este curso a personas que ya tienen una mínima práctica con PRD, PDI y Java.

Aquí una vista previa del curso: https://www.youtube.com/watch?v=nzzhR74s_g8

Saludos

Mariano

martes, mayo 06, 2014

Promoción DRM day en Packt

Estimad@s,

una vez más Packtpub ofrece una promoción se trata del día en contra del DRM, mediante esta promoción Packt Publishing ofrece todos sus eBooks y videos a solo US$ 10 por 24 horas el día 6 de Mayo.

Más información aquí

Habrá que aprovechar!

Saludos

Mariano

miércoles, marzo 26, 2014

Promoción 2K de Packt Publishing

En este caso quería comentarles acerca de una promoción que está realizando Packt Publishing, en la cual si adquieres un libro  te regalan cualquier otro ejemplar.

La promoción se debe a que la editorial ha llegado a los 2000 títulos!

Más información: http://www.packtpub.com/?utm_source=referral&utm_medium=marketingPR&utm_campaign=2000thTitle

En esta editorial hemos publicado junto a Dario Bernabeu el libro "Pentaho 5.0 Reporting by Example: Beginner’s Guide"




Saludos

Mariano

jueves, febrero 27, 2014

Cursos Pentaho OSBI, Reporting & Dashboards

Estimad@s,

en abril comienzan 3 cursos Pentaho:

  • Pentaho 5.0 OSBI




  • Pentaho Reporting:



  • Dashboards Advanced (Nuevo!!! Ctools a tu alcance!):



Para más información escribir a cursos@troyanx.com

Los cupos son limitados!, recomendamos reservar con anticipación.

Saludos

Mariano

Seguirme por email

Etiquetas

pentaho (45) java (35) eclipse (23) jdbc (14) curso (13) tomcat (13) primefaces (12) db2 (11) mondrian (10) review (10) jsf (9) openI (9) pdi (9) prd (9) libro (8) plugin (8) musql (7) struts (7) javascript (6) spring (6) cdf (5) ctools (5) instalar (5) linux (5) mysql (5) data studio (4) hibernate (4) ireport (4) jasper (4) meteor (4) videocurso (4) eglu (3) eglubi (3) elearning (3) graphite (3) grupo eglu (3) jboos tools (3) mexico (3) openbits (3) packt (3) python (3) undec (3) websphere (3) applet (2) cde (2) dao (2) db2university (2) exelearning (2) flexigrid (2) hadoop (2) iua (2) kettle (2) moodle (2) node (2) olap (2) osbi (2) pivot4j (2) scorm (2) sql (2) stpivot (2) actionscript (1) amazon (1) autenticacion (1) avanzado (1) base de datos (1) big data (1) bigdata (1) bodoc (1) cambiar (1) ccc (1) cdc (1) chat (1) cloud (1) coffeescript (1) control de acceso (1) corti (1) csv (1) cuba (1) curso meteor undec (1) dashboard (1) datamart (1) dataptix.tv (1) datasource (1) datatable (1) db2 ExpressC (1) demonio (1) distancia (1) driver (1) driver jdbc (1) eglufiltertwolist (1) encapsulamiento (1) especialización (1) etl (1) excepciones (1) export (1) faces (1) federación (1) filas afectadas (1) filtertwolist (1) filtrado (1) flegrid (1) flex (1) google (1) google viz (1) hostname (1) html (1) i18n (1) ibm (1) identidad (1) indignación (1) instancias (1) inteligencia de negocios (1) jee (1) jpivot (1) l10n (1) la azada (1) la zaga de los confines (1) layout (1) liberado (1) libre (1) libro promoción (1) lob (1) marktplace (1) menu (1) meteor node javascript google oauth autenticacion (1) mobile (1) mongoDB (1) node.js (1) oauth (1) olap4j (1) open source (1) orm (1) persistencia (1) personalizada (1) prd5 (1) psw (1) publicidad (1) rad6 (1) recursividad (1) reporting (1) rock (1) saiku (1) script (1) servicio (1) sessiontimeout (1) sourceforge (1) spinneta (1) sqlserver (1) ssl (1) taller (1) troyanx (1) ubuntu (1) ucc (1) ui (1) web (1) web console (1) xampp (1) xml (1) xpath (1)

Seguidores