Mostrando las entradas con la etiqueta review. Mostrar todas las entradas
Mostrando las entradas con la etiqueta review. Mostrar todas las entradas

jueves, julio 21, 2016

My review of "Learning Pentaho CTools" by Miguel Gaspar / Packt Publishing


This is the first book that deals CTools. A great responsibility! Do not worry, it's a great book, highly recommended!
Will guide you in order to obtaining the basic knowledge of CTools & environment.
The focus is definitely CDF/CDE, with the guide of this book, you can create and maintain interactive Dashboards with multiple components.
Personally, I liked the chapter "Pentaho App Builder" in which explains how to create a new plugin through Sparkl.
My final appreciation: highly recommended!






Mariano

lunes, julio 28, 2014

Pentaho Analytics for MongoDB - Review

Estimad@s,

hace unos días comencé con la lectura de Pentaho Analytics for MongoDB, se trata de un libro escueto pero conciso, en el cual se muestra como acceder y explotar datos desde la base de datos documental Mongo DB utilizando características de la suite Pentaho EE. El autor del libro es Bo Borland.



Este libro fue editado por Packt Publishing aquí y también está disponible como White Paper en la página de Pentaho aquí.

El material nos guía partiendo de la instalación de Mongo DB y Pentaho como así también de la base de datos de ejemplo. Luego, el autor,  hace una breve introducción a Mongo DB, sus características y muestra algunos ejemplos de como consultar y trabajar con los datos almacenados.

Luego, utilizando Pentaho Instaview (característica de la versión EE) , se configura como fuente Mongo DB y se muestra como visualizar inmediatamente los datos.
Más tarde se sigue ahondando en Instaview, siempre desde PDI, para crear análisis (usando mapas, entre otros) desde fuentes de datos heterogéneas.
Una de las partes más interesantes es cuando se sigue trabajando con Instaview para crear modelos multidimensionales, realmente la herramienta permite hacerlos en pocos minutos y explotarlos inmediatamente.

El libro continúa haciendo una breve introducción a PRD para luego crear un reporte que obtiene datos desde Mongo DB. Poco a poco se adorna el reporte hasta obtener uno con gráficos y una presentación excelente.

Finalmente, el autor, hace una introducción a la consola de usuario de Pentaho (PUC) y luego muestra como desplegar los reportes y análisis en PUC desde las diversas herramientas.

Mi apreciación personal:
Si bien gran parte del libro requiere disponer de la versión EE de Pentaho (la que se puede descargar en versión de prueba de 30 días) en muchos casos lo que se explica se puede realizar con herramientas de la versión CE. Las explicaciones son muy claras y puntuales, no dejan dudas respecto de lo que se quiere exponer. Vale la pena aclarar que se utilizan las versiones de Pentaho y Mongo DB para Window$ de 64 bits.

Espero les sea de utilidad.

Saludos

Mariano

lunes, junio 23, 2014

Building Hadoop Clusters [Video] - Review (en español)

Estimad@s,

una vez más se trata de una review de un video curso publicado por Packt Publishing. En este caso les haré un comentario sobre "Building Hadoop Clusters" cuyo autor es Sean Mikha.



En este curso Sean explica con lujo de detalle como configurar correctamente un cluter Hadoop en la nube de Amazon. Parte de una explicación sumamente detallada de las opciones del tablero de Amazon (configuración de instancias, opciones de red y seguridad) y luego la instalación y configuración propiamente dicha. También explica como chequear conectándonos desde diversos clientes.
Una vez que se ha instalado Hadoop, nos muestra como se ponen en juego los diversos servicios y el rol que cumple cada uno, siempre agregando tips y recomendaciones. En la parte final nos muestra el sistema de almacenamiento y procesamiento de Hadoop y finalmente la instalación y puesta en marcha de Apache Hadoop User Interface (HUE).


Como resumen diré que el curso es muy minucioso y vale la pena, recomiendo que el interesado lea algo de big data, Hadoop y computación en la nube antes de hacer este curso. Procesar y almacenar grandes cantidades de datos ya no es una opción para medianas y grandes empresas, no hay mucho material de referencia como el que se presenta en este curso, por ello lo recomiendo.

Aquí una vista previa del curso: https://www.youtube.com/watch?v=uXitqC7eQXk


Esta es la tabla de contenidos del curso:

Deploying Cloud Instances for Hadoop 2.0
  • Introduction to the Cloud and Hadoop 
  • Deploying a Linux Amazon Machine Image 
  • Setting Up Amazon Instances 

Setting Up Network and Security Settings
  • Network and Security Settings Overview 
  • Identifying and Allocating Security Groups 
  • Configuration of Private Keys in a Windows Environment 

Connecting to Cloud Instances
  • Overview of the Connectivity Options for Windows to the Amazon Cloud 
  • Installing and Using Putty for Connectivity to Windows Clients 
  • Transferring Files to Linux Nodes with PSCP 

Setting Up Network Connectivity and Access for Hadoop Clusters
  • Defining the Hadoop Cluster 
  • Setting Up Password-less SSH on the Head Node 
  • Gathering Network Details and Setting Up the HOSTS File 

Setting Up Configuration Settings across Hadoop Clusters
  • Setting Up Linux Software Repositories 
  • Using the Parallel Shell Utility (pdsh) 
  • Prepping for Hadoop Installation 

Creating a Hadoop Cluster
  • Building a Hadoop Cluster 
  • Installing Hadoop 2 – Part 1 
  • Installing Hadoop 2 – Part 2 

Loading and Navigating the Hadoop File System (HDFS)
  • Understanding the Hadoop File System 
  • Loading and Navigating the Hadoop File System 
  • Ambari Server and Dashboard 

Hadoop Tools and Processing Files
  • Hadoop Tools and Processing Files 
  • Installing HUE 
  • Using HUE 


Espero les sea de utilidad el comentario.

Saludos

Mariano

viernes, junio 13, 2014

Building an Application with CoffeeScript [Video Serie] - Review (en español)

Estimad@s,

durante esta semana he tenido la oportunidad de revisar un buen material sobre CoffeeScript, se trata de la serie de videos "Building an Application with CoffeeScript" publicado por Packt Publising  y cuyo autor Darko Bozhinovski vuelca su experiencia en este curso.

Pueden ver una demo aquí.

El curso tiene una duración aproximada de 1 hora y 40 minutos, en los cuales no solo aprenderemos las particularidades de CoffeeScript sino también a crear una aplicación funcional, si bien es necesario poseer conocimientos de javascript, no es requisito que los conocimientos sea profundos, el autor va introduciendo de a poco al espectador en la programación y buenas prácticas.

Si bien no llega a un nivel avanzado (difícil en el tiempo que dura el curso), lo que obtendrá el espectador es una muy buena idea de como llevar adelante la construcción de una aplicación utilizando CofeeScript y tecnologías de punta, sumado a ello, el autor insiste en las buenas prácticas de la programación apoyado siempre en la documentación.

Particularmente, me ha resultado de mucha utilidad, me ha parecido un buen curso, los contendidos son expuestos de forma muy clara y con la cadencia adecuada. Los ejemplos son claros y concretos.

Recomiendo este video curso.

El contenido completo del video curso es:

CoffeeScript 101 [13:33 minutes]
  • A Taste of CoffeeScript
  • Concepts and Usage
  • Tools and Extras
Head-first Application Development [13:52 minutes]
  • Basics of Object-oriented Programming
  • MVC and Using It in Our Project
  • Inheritance and Keeping Classes Simple
The Storage Layer – Models and Data Persistence [14:12 minutes]
  • Models and Storage Basics
  • Models in Our Application
Routing and Views [12:23 minutes]
  • Introduction to Routing, Controllers, and Views
  • Routing and Controllers
  • The View Layer
Interactions and Event Handling – Using JQuery with CoffeeScript [11:24 minutes]
  • Local Events
  • Global Events
Extending Our Application – Manipulating Stored Data [13:07 minutes]
  • Organizing Application Data
  • Extending the Document Classes
  • Making Our App More Usable
Extending Our Application – Add an External Library [11:10 minutes]
  • Adding External Libraries
  • Modifying Our App for Rich Text Editing
  • Exporting Our Documents to PDF
Publishing and Real-world Usage for Our Documents [11:01 minutes]
  • Using Our Documents Offline
  • Publishing Files
  • What's Next?
Saludos

Mariano

sábado, mayo 31, 2014

Building a Data Mart with Pentaho Data Integration [Video Serie] - Review (en español)

Estimad@s,

A veces no dejo de sorprenderme, a sido el caso de los últimos dos video cursos que he tenido la posibilidad de revisar, en el caso anterior sobre Pentaho Reporting y en este caso un video curso sobre como construir un DataMart que contiene un modelo en estrella siguiendo los preceptos de Ralph Kimball. Este video curso fue creado por Diethard Steiner, persona a la cual respeto de forma particular por la seriedad y calidad de sus publicaciones. Con este video curso Diethard ha demostrado una vez más su profesionalismo.

Este video lo ha publicado Packt Publishing y se encuentra en este link.

Disponen de una vista previa aquí.

La suma de todos los videos es de aproximadamente 2 horas.

Diethard nos guía paso a paso en la construcción de un Datamart utilizando en cada momento las herramientas adecuadas y profundizando lo justo en cada caso, sumado a ello una explicación excelente y una cadencia muy oportuna en la presentación. El curso es extremadamente dinámico y es muy recomendable para aquell@s que deseen asentar sus conocimientos sobre la temática y para aquellos que quieren introducirse en el tema. El valor agregado es que además de explicar cada concepto, se lo lleva a la práctica con la herramienta adecuada.

Realmente recomiendo este curso.

Felicitaciones Diethard!

Indice del curso:


Getting Started [18:25 minutes]
  1. The Second-hand Lens Store Sample Data
  2. The Derived Star Schema
  3. Setting up Our Development Environment

Agile BI – Creating ETLs to Prepare Joined Data Set [12:27 minutes]
  1. Importing Raw Data
  2. Exporting Data Using the Standard Table Output Step
  3. Exporting Data Using the Dedicated Bulk Loading Step

Agile BI – Building OLAP Schema, Analyzing Data, and Implementing Required ETL Improvements [11:29 minutes]
  1. Creating a Pentaho Analysis Model
  2. Analyzing the Data Using the Pentaho Analyzer
  3. Improving Your ETL for Better Data Quality

Slowly Changing Dimensions [17:03 minutes]
  1. Creating a Slowly Changing Dimension of Type 1 Using the Insert/Update Step
  2. Creating a Slowly Changing Dimension of Type 1 Using Dimension Lookup Update Step
  3. Creating a Slowly Changing Dimension Type 2

Populating Data Dimension [16:10 minutes]
  1. Defining Start and End date Parameters
  2. Auto-generating Daily rows for a Given Date Period
  3. Auto-generating Year, Month, Day and so on.

Creating the Fact Transformation [14:28 minutes]
  1. Sourcing Raw Data for Fact Table
  2. Look up Slowly Changing Dimension of the Type 1 Key
  3. Look up Slowly Changing Dimension of the Type 2 key

Orchestration [10:29 minutes]
  1. Loading Dimensions in Parallel
  2. Creating Master Jobs

ID-based Change Data Capture [9:46 minutes]
  1. Implementing Change Data Capture (CDC)
  2. Creating a CDC Job Flow

Final Touches: Logging and Scheduling [11:14 minutes]
  1. Setting up a Dedicated DB Schema
  2. Setting up Built-in Logging
  3. Scheduling on the Command Line

martes, mayo 13, 2014

Pentaho Reporting [Video] - Review (en español)

Estimad@s,

en este caso expondré de forma resumida mis apreciaciones acerca del video curso de Pentaho Reporting (PRD) desarrollado por Francesco Corti que es un gran contribuyente a la comunidad Pentaho.

En términos generales diré que el curso es de poco más de una hora y media, está dividido en pequeños videos de unos 3 a 4 minutos cada uno, cada video toca un tema en particular y lo hace de forma muy sintética y va directo al grano, sin rodeos.
El hecho de ir directamente al punto es una ventaja y desventaja al mismo tiempo, es ventajoso para los que de alguna forma tenemos práctica con PRD, Pentaho Data Integration (PDI) y Java, ya que no requerimos ver cada detalle, pero para aquellos que no tienen práctica previa, deberán detener continuamente el video.
Los ejemplos desarrollados son simples y concretos, eso facilita el aprendizaje, por otro lado la narración es muy buena, el inglés es clarísimo, aunque de vez en cuando cambia el todo.
El sistema de navegación del curso es claro y bastante cómodo, se basa en una interfaz web.
Todos los ejemplos desarrollados en el curso, están disponibles para descargar, por ello la persona que toma el curso, no debe preocuparse por tipear o seguir cada paso.

En detalle el curso consta de:

Getting Started with Pentaho Reporting [15:57 minutes]
  1. Installing Pentaho Reporting 
  2. Loading and Saving Reports and Having a Preview 
  3. Building a Report Using the Report Wizard 
  4. Building the 'My First Report' 
  5. Customizing the 'My First Report' 
  6. Advanced Customization on the My First Report 

Dive Deeper into the Pentaho Reporting Engine's XML and Java APIs [11:44 minutes]
  1. Setting the Java Development Environment 
  2. Embedding a Pentaho Report in an Enterprise Web Application 
  3. Embedding a Pentaho Report in a SWING Application 
  4. Introducing Serialized Reports 
  5. Building a Report Using Pentaho Reporting’s Java API 

Configuring the JDBC Database and Other Data Sources [12:43 minutes]

  1. Configuring Your Data Source to a DBMS Using JDBC 
  2. Configuring Your Data Source to an OLAP Engine (Mondrian) 
  3. Configuring Your Data Source to an XML File and a Table 
  4. Configuring Your Data Source to Metadata and PDI 
  5. Working with Data Sources in Java 

Introducing Graphic Chart Types – Pie, Bar, Line, and Others [10:36 minutes]

  1. Incorporating a Line Chart into a Pentaho Report 
  2. Incorporating Supported Charts and Common Properties 
  3. Incorporating and Customizing Charts into a Report 
  4. Incorporating Images into a Report 

Modifying Reports Using Parameters and Internationalization [11:14 minutes]

  1. Parameterizing a Pentaho Report 
  2. Parameterizing a Pentaho Report Using Java 
  3. Working with Functions and Expressions 
  4. Working with Formulas 
  5. Internationalization and Localization of Pentaho Reports 

Adding Subreports and Cross Tabs in Your Reports [09:52 minutes]

  1. Adding a Multi-page Subreport in a Pentaho Report 
  2. Parameterizing and Adding Chart Subreport in a Pentaho Report 
  3. Adding a Side-by-Side Subreport in a Pentaho Report 
  4. Adding Cross Tabs in a Pentaho Report 

Building Interactive SWING and HTML Reports [12:29 minutes]

  1. Building Interactive Reports in SWING 
  2. Building Interactive Reports in HTML 

Using Pentaho Reporting in the Pentaho Suite [13:10 minutes]

  1. Using Pentaho Reporting with Pentaho Business Intelligence Server 
  2. Using Pentaho Reporting with Pentaho Data Integration (Kettle) 

Como podrán observar, toca una diversidad importante de temas, algunos de ellos no triviales, pero por demás interesantes.

Personalmente, me ha gustado y he disfrutado de este curso. "SIEMPRE SE APRENDE ALGO NUEVO!"
Recomiendo este curso a personas que ya tienen una mínima práctica con PRD, PDI y Java.

Aquí una vista previa del curso: https://www.youtube.com/watch?v=nzzhR74s_g8

Saludos

Mariano

martes, julio 19, 2011

Pentaho Data Integration 4 Cookbook

He recibido con mucho agrado una copia de "Pentaho Data Integration 4 Cookbook", un libro muy esperado.



Particularmente pienso que el formato Cookbook es el más cómodo una vez que manejamos un software, Poseo varios libros de este tipo y me han sido de mucha utilidad. Por otro lado, me adelanto a decir, que si este libro tiene la misma calidad que el anterior, está todo dicho.

Gracias a Richard Dias (Packt Publishing) y a Maria Carina Roldan (co-autora)

Saludos

Mariano

martes, diciembre 07, 2010

Pentaho 3.2 Data Integration: Beginner's Guide (fin de lectura)

Estimados,

luego de un tiempo considerable he finalizado la lectura de "Pentaho 3.2 Data Integration: Beginner's Guide" escrito por María Carina Roldán.

En pocas palabras, un muy buen libro!

La cantidad de ejemplos, sobre todo de procesos no triviales y poco utilizados, hacen de este libro una opción inteligente a la hora de aprender sobre PDI e integración de datos.

Uno de los capítulos que más ha llamado la atención es el dedicado a Javascript embebido.

También podrán leer sobre como armar datamarts mediante la utilización de los pasos necesarios y su configuración.

No intento hacer un resumen del libro ni mucho menos, pero considero que su lectura es fundamental para aquellos que se inician con PDI e integración de datos y muy recomendable para aquellos que ya lo conocen y quieren profundizar.

Saludos

Mariano García Mattío

miércoles, agosto 11, 2010

Pentaho 3.2 Data Integration: Beginner's Guide

Estimados,

este fin de semana lo he dedicado a leer gran parte de  "Pentaho 3.2 Data Integration: Beginner's Guide" un libro escrito por María Carina Roldán.
La verdad, la sorpresa ha sido muy grata, el libro es muy ameno, las explicaciones detalladas y adornadas por variados ejemplos. El libro abarca temas integrales además del software en sí.
El lector podrá aprender desde cero la utilización y pontencialidad que posee PDI, como crear trabajos, transformaciones el uso de pasos triviales y complejos.

En cuanto finalice con la lectura haré más comentarios.

Saludos

Mariano García Mattío

lunes, febrero 01, 2010

La Saga de los Confines

Bueno, siguiendo con las recomendaciones de libros, en este caso no tiene nada que ver con tecnología, en mis vacaciones he tenido el enorme placer de leer una trilogía llamada "La Saga de los Confines" escrita por Liliana Bodoc, la saga esta compuesta por: Los Días del Venado, Los Días de la Sombra y Los Días del Fuego, la historia transcurre en un mundo imaginario compuesto por las Tierras Fértiles y las Tierras Antiguas, separados por los mares Yentru y Lalafke, ambos continentes, sobre todo Las Tierras Fértiles, luchan contra Misáianes, el hijo que la Muerte (La Sombra) tenía prohibido engendrar y que el Odio Eterno aprovechó para encarnar.
Leer esta saga fue un placer inmenso, pocos libros he leído con tantas ganas, me ocurrió que no podía parar de leerlos y por otra parte no quería que se acabaran.
Más información.

Etiquetas

pentaho (45) java (35) eclipse (23) jdbc (14) curso (13) tomcat (13) primefaces (12) db2 (11) mondrian (10) review (10) jsf (9) openI (9) pdi (9) prd (9) libro (8) plugin (8) musql (7) struts (7) javascript (6) spring (6) cdf (5) ctools (5) instalar (5) linux (5) mysql (5) data studio (4) hibernate (4) ireport (4) jasper (4) meteor (4) videocurso (4) eglu (3) eglubi (3) elearning (3) graphite (3) grupo eglu (3) jboos tools (3) mexico (3) openbits (3) packt (3) python (3) undec (3) websphere (3) applet (2) cde (2) dao (2) db2university (2) exelearning (2) flexigrid (2) hadoop (2) iua (2) kettle (2) moodle (2) node (2) olap (2) osbi (2) pivot4j (2) scorm (2) sql (2) stpivot (2) actionscript (1) amazon (1) autenticacion (1) avanzado (1) base de datos (1) big data (1) bigdata (1) bodoc (1) cambiar (1) ccc (1) cdc (1) chat (1) cloud (1) coffeescript (1) control de acceso (1) corti (1) csv (1) cuba (1) curso meteor undec (1) dashboard (1) datamart (1) dataptix.tv (1) datasource (1) datatable (1) db2 ExpressC (1) demonio (1) distancia (1) driver (1) driver jdbc (1) eglufiltertwolist (1) encapsulamiento (1) especialización (1) etl (1) excepciones (1) export (1) faces (1) federación (1) filas afectadas (1) filtertwolist (1) filtrado (1) flegrid (1) flex (1) google (1) google viz (1) hostname (1) html (1) i18n (1) ibm (1) identidad (1) indignación (1) instancias (1) inteligencia de negocios (1) jee (1) jpivot (1) l10n (1) la azada (1) la zaga de los confines (1) layout (1) liberado (1) libre (1) libro promoción (1) lob (1) marktplace (1) menu (1) meteor node javascript google oauth autenticacion (1) mobile (1) mongoDB (1) node.js (1) oauth (1) olap4j (1) open source (1) orm (1) persistencia (1) personalizada (1) prd5 (1) psw (1) publicidad (1) rad6 (1) recursividad (1) reporting (1) rock (1) saiku (1) script (1) servicio (1) sessiontimeout (1) sourceforge (1) spinneta (1) sqlserver (1) ssl (1) taller (1) troyanx (1) ubuntu (1) ucc (1) ui (1) web (1) web console (1) xampp (1) xml (1) xpath (1)

Seguidores