Archivos Históricos

En esta sección aparecen todos aquellos artículos históricos pertenecientes a Recreaciones SQL y los realizados en otras plataformas para blogs que ya no ofrecen más sus servicios.  He decidido incluirlos por si a alguien aún pueden serles útiles.

In this section appears all my historic posts that belongs to SQL Recreations and other blog platforms that don´t offer their services anymore.  I have decided to include them just in case they can help somebody.

Blog de Multiply
Recreaciones SQL

El siguiente paso

A comienzos de este año (2009: Año de Darwin) una de las empresas, en donde suelo colaborar, me invito a asistir a un curso impartido por Javier Loría de la empresa Solid Quality. En el transcurso del mismo y durante un momento de recreación Javier nos mostro una herramienta dentro de Google que me dejo pensando en el futuro de los buscadores de internet. La herramienta que nos mostro es Google Insights for Search. Esta herramienta nos permite comparar los patrones masivos de búsqueda, efectuados en google, entre regiones específicas, categorías, rangos de tiempo y propiedades.

Al mirar el funcionamiento de esta herramienta vinieron a mi mente ciertas correlaciones entre lo que es actualmente inteligencia de negocios y la forma en que se representan los resultados de la aplicación de los algoritmos de minería de datos a los usuarios. El problema de la representación del conocimiento no es trivial pues tiene que ver con disciplinas como la epistemología, el diseño gráfico, la fisiología, la biología y la psicología entre otras. La empresa Microsoft, al igual que muchas otras, realiza investigaciones en este campo y tiene un sitio en internet que nos permite interactuar con algunas de la interfaces producto de las investigaciones. El sitio se encuentra en: http://research.microsoft.com/vibe

Hace un par de días búscando una orientación para un problema que tenía con el procesamiento de ciertos datos (por cierto del dominio de la Biología — ¿qué coincidencia?) me tope con un sitio que realmente llamo mi atención por la forma en que me permitía visualizar la información solicitada. Ya que estamos viviendo en la euforía neodarwinista (no sólo por el año sino también por el reciente hallazgo del eslabón perdido) y escudandome en la Teoría de la Evolución tecnológica, creo que puedo afirmar que hemos dado el siguiente paso en la evolución de los buscadores de internet, y para comprobarlo sólo hace falta ingresar en el sitio de WolframAlpha para darse cuenta de ello. Aunque todavía le falta refinar sus búquedas no hay lugar a duda de que la presentación de los resultados de las mismas muestran todo el poder de las tecnologías de inteligencia de negocios, como lo que muestra el Dr.Hans Rosling en su plática “New Insights on Poverty“.

Los invito a probar estas herramientas que muy seguramente les dejaran vislumbrar una pequeña parte de lo que nos depara el futuro cercano en cuanto al aprovechamiento de la información disponible en internet. Diviertanse con ellas y los dejo con dos parrafos que enuncian dos personajes de ficción pero que dicen cosas que no pertenecen a ese ambito.

“Yo le voy a decir el problema con el poder científico que está utilizando aquí: para llegar a él no se necesito ninguna disciplina para lograrlo. Tomaron lo que otros hicieron y dieron el siguiente paso. No generaron el conocimiento ustedes mismos, por lo que no asumen ninguna responsabilidad … por ello. Usted se apoyo en los hombros de genios para lograr algo, tan rápido como se pudiera e incluso antes de que usted supiera que pasaba, ya lo había patentado, envasado y puesto en paquetes de plástico, y ahora usted lo está vendiendo.”

Dr. Ian Malcolm — Jurassic Park de Michael Crichton

“Mutación: es la clave de nuestra evolución. Lo que nos ha permitido evolucionar de un organismo unicelular en la especie dominante sobre el planeta. Este proceso es lento, y normalmente toma miles de años. Sin embargo, cada pocos cientos de milenios, la evolución avanza.”

Dra. Jean Grey — X Men


Factor L

Como consultor en tecnologías de información, es frecuente que al diseñar una solución para algún cliente, tenga que tener en cuenta no sólo lo que se refiere a la plataforma y la integración de productos, sino también lo que tiene que ver con patentes, derechos de autor y licencias o como me ha dado por llamarlo “el factor (L)egal”.

La facilidad con la instalamos software en cualquier computadora nos hace olvidar que el software es propiedad de alguien y que para usarlo debemos tener permiso explicito del autor para emplearlo a nuestra conveniencia. Esto es verdad tanto para el software abierto (open source) como para el software propietario. Enfocare este comentario en este asunto pues es en lo referente al licenciamiento de software que he estado más involucrado en últimas fechas.

Una licencia de software es un contrato que regula lo siguiente:

  • los derechos de propiedad intelectual del autor.
  • las condiciones bajo las cuales el usuario hace uso del software.
  • las obligaciones que adquiere el productor (o empleador en algunos casos).

La forma de la licencia puede variar desde un instrumento en papel, hasta un archivo de texto, pasando por una pantalla que aparece al instalar la aplicación por primera vez. Es normal que el contrato de licencia contenga, entre otros puntos, los siguientes:

  • los referidos a la garantía
  • servicios de soporte
  • y postventa del software.

Licencia de SQL Server

Reflexionando un poco, es evidente que el software lleva asociado dos costes: el monetario y el tiempo dedicado al software (ya sea capacitándonos en su uso, configurándolo o en soporte y mantenimiento).Y así mismo dependiendo del tipo de software que queremos tener instalado en nuestra computadora debemos considerar el tipo de licencia que tiene asociado a él. Para consultar algunos de los tipos de software y su licenciamiento correspondiente podemos consultar los siguientes enlaces:

Tipos de software y licencias http://www.alberguedenaufragos.com.ar/inst/tiposoft.html Copy Left http://wapedia.mobi/en/Copyleft Licencias http://www.fsf.org/licensing/licenses/ http://www.gnu.org/philosophy/license-list.es.html Licensing Options For Independent Software Vendors http://www.microsoft.com/licensing/licensing-options/isv-program.aspx#tab_1

Las cuestiones de si el software debe ofrecerse gratuitamente o venderse tiene sus orígenes allá por 1976 entre los primeros propietarios de computadoras personales.  El movimiento que proponía el ofrecimiento gratuito del software estaba encabezado por Jim Warren (July 1976 – Correspondence”. SIGPLAN Notices (ACM) 11 (7): pp. 1-2. ISSN 0362-1340.) y Gary Kildall.  Apoyando la postura contraria se encontraban Bill Gates con su carta abierta a los aficionados (“Open Letter to Hobbyists”) y Tom Pittman  con su artículo “Free Software? Or Support Your Local Software Vendor.

 Bill Gates Letter to Hobbyists

Ambas posturas han evolucionado a través del tiempo. Por parte de los que apoyan la venta del software vemos la innovación más efectiva y controversial de mercadotecnia, lanzada por Microsoft en 1988, las licencias por procesador y en cuanto a la evolución de la estrategia de licencias por volumen, podemos revisar la misma comentada por Bill Gates en una entrevista que concedió a la revista Playboy (http://beginnersinvest.about.com/library/titans/bl-billgatesinterview4.htm), además en la actualidad ha comenzado a adaptar el esquema de licenciamiento a los ambientes virtuales (http://news.zdnet.com/2100-3513_22-145004.html?tag=nl.e589).

En cuanto a la postura de ofrecimiento gratuito del software tenemos actualmente la Free Software Foundation con su Licencia Pública General (GPL- General Public License) y su apoyo al software libre.  El software libre, como concepto, se refiere a la libertad que se les da a los usuarios para utilizarlo con cualquier fin, analizar su funcionamiento, adaptarlo a las necesidades propias, copiarlo y distribuirlo. Podemos consultar más acerca del movimiento a través del artículo publicado en el New York Times “Whose Intellectual Property Is It, Anyway? The Open Source War“.  Si se quiere profundizar más en este asunto recomiendo la adquisición del libro “Free for All: How Linux and the Free Software Movement Undercut the High-Tech Titans” de Peter Wayne.

El ciclo de vida del software (ciclo que comienza con la adquisición, pasando por el desarrollo y hasta la retirada de este) se encuentra siempre acompañado de una licencia motivo por el cual se debe implementar una buena gestión de activos de software para llevar un adecuado control de los mismos.  Microsoft ha puesto a disposición del público en general y sin costo (por el momento) una serie de herramientas y formatos que nos ayudan a implementar una gestión adecuada de activos de software, los cuales podemos descargar desde el siguiente enlace: http://www.microsoft.com/resources/sam/default.mspx

Y como en el camino no siempre encontraremos que se está utilizando adecuadamente un software, debemos saber qué hacer y a quién acudir en esos casos.  La Software Business Alliance nos puede orientar para no caer en algún tipo de violación de derechos.

Espero que esta reseña les pueda ayudar a seleccionar que tipo de software quieren manejar dentro de sus empresas y de sus computadoras.
Hasta la próxima y los dejo con la respuesta a una pregunta que muchos de nosotros nos hemos formulado alguna vez ¿a dónde va a parar el software cuando termina su ciclo de vida? (Where old software goes to die)
Diviértanse mientras tanto. 8-)


Mejores Prácticas

Constantemente escuchamos que alguien menciona que las mejores prácticas son esto o aquello, y a una gran variedad de empresas, de diferentes sectores que afirman en su publicidad estar llevando a cabo las mejores prácticas existentes en su ramo. Un ejemplo palpable de esto suele ser el caso del software. Si realizamos una búsqueda acerca de este tema, esta nos arroja una gran cantidad de resultados que resulta difícil decidir por donde comenzar. Y una vez que hemos seleccionado un enlace que creemos es precisamente lo que andábamos buscando, surge esa duda ¿Cómo sé que estas son las mejores prácticas? ¿por qué he de creerles?  Esta desconfianza aparece debido al desconocimiento del proceso para la obtención de estas prácticas.

Pero ¿Qué entendemos por mejores prácticas? ¿Qué son? Ante estas interrogantes diré que podemos considerar las mejores prácticas como un conjunto de procesos repetibles y probados que se pueden aprovechar para producir resultados predecibles y excelentes. De esto mismo podemos derivar que los beneficios que traen consigo son la reducción de riesgos y la mejora de la eficiencia. Las mejores prácticas dependen de la complejidad de la herramienta o servicio, por lo que consultar a las empresas que los desarrollan o los otorgan, sobre estas prácticas no siempre es lo más acertado, aunque si es un buen punto de partida, ya que su opinión no es imparcial. Al no poder ser juez y parte para determinar lo que es una mejor práctica, se recurre a la obtención de las mismas a partir de un tercero.  Es de esta manera que las mejores prácticas proceden del proceso de comparación referenciada o benchmarking. El benchmarking es el proceso de búsqueda, selección, análisis y posible adopción de las mejores prácticas en su clase, ideas innovadoras y procedimientos operacionales efectivos para mejorar el desempeño del negocio.  A través de este proceso, las empresas comparan sus procesos, prácticas, productos y/o servicios con los de otras organizaciones, para entender las brechas entre sus prácticas y las de las empresas referenciadas. Los organismos como la IEEE, la OGC o el TPC que proponen estándares son muy importantes al momento de comenzar a documentarse sobre las mejores prácticas. OGC Best Practices IEEE Transaction Processing Performance Council (TPC)

Existen mejores prácticas en diferentes ámbitos y a diferentes niveles, así las tenemos por ejemplo por sectores, en el caso de la industria farmacéutica o de tecnología, o a nivel personal como es el caso de recomendaciones de seguridad personal.  Para que puedan constatar lo anterior les dejo algunos ejemplos para que tengan la oportunidad de revisarlos y forjarse su propia opinión. Tips de Seguridad SQL Server Best Practices Best Practices LL IT Best Practices Best Practices Database in improving the living environment

No dejemos que las mejores prácticas se vuelvan una frase publicitaria y mejor comencemos a adoptarlas y en la medida que avancemos, empezar a crear nuestro propio conjunto de mejores prácticas. Como decía un personaje de una serie policíaca de TV “Funciona para mí”.

Hasta la próxima  8-)


Fast Track Data Warehouse para el manejo de VLDBs

El almacenamiento de los datos ha sido un tema importante desde que en 1956, IBM saca al mercado el primer disco duro de acceso aleatorio (la unidad de almacenamiento en disco 350), hasta nuestros días en donde podemos notar un crecimiento de los datos con una tasa anual del 80%, esto según un estudio llevado a cabo en la universidad de Berkeley.

El incremento se debe tanto a las nuevas regulaciones legales como a la convergencia de las tecnologías digitales, sin dejar de lado las necesidades de las empresas y de los usuarios, quienes  guardan cada vez más información de diferente procedencia.   Muchos de estos datos conforman información no estructurada que, debido a su volumen, es necesario almacenar en bases de datos  para poder administrarla de manera eficiente.

Cuando comenzamos a hablar de Terabytes de información almacenados en nuestras bases de datos y en los medios de almacenamiento, entonces estamos hablando de bases de datos muy grandes (VLDB – Very Large Data Base, por sus siglas en inglés) que si bien siguen siendo bases de datos, no pueden seguir administrándose de la misma forma que las bases de datos tradicionales. Por ejemplo el mantenimiento de numerosos índices es prohibitivo por el tiempo que tomaría llevarlo a cabo.

En Microsoft SQL Server 2008 surgen dos iniciativas para el manejo de grandes cantidades de datos, Fast Track Data Warehouse y Parallel Data Warehouse.  Aquí comentare brevemente cómo puede ayudarnos Fast  Track  Data Warehouse en el manejo de bases de datos muy grandes sin hacer gastos excesivos y de manera rápida.  Esta iniciativa provee de una metodología básica y ejemplos concretos para la implementación de una arquitectura balanceada de almacenamiento de datos con cargas de trabajo predefinidas por el usuario.  El balance es medido a través de componentes clave de la instalación de SQL Server:

  • El almacenamiento (storage)
  • El servidor
  • Parámetros de inicialización de la aplicación
  • Evaluación de la configuración de cada uno de los componentes.

El objetivo es lograr una eficiencia balanceada lista para usarse entre la capacidad de procesamiento de datos de SQL Server y la capacidad de Entrada/Salida del hardware agregado.  Se propone almacenamiento ideal mínimo para satisfacer los requerimientos del usuario y proveer suficiente E/S en disco para SQL Server y alcanzar la máxima tasa de procesamiento de datos referenciada.

Se le denomina Fast Track (camino rápido) por el uso de arquitecturas de referencia conformadas por configuraciones de componentes de hardware.  Una arquitectura referenciada está definida por:

  • Cargas de trabajo
  • Configuración centrada en componentes
  • Validación
  • Lineamientos de buenas prácticas para base de datos.

Los principios importantes de una arquitectura de referencia Fast Track son:

  • Especificaciones detalladas y validadas de los componentes de hardware
  • Una metodología validada para la evaluación de base de datos y componentes de hardware.
  • Arquitectura de componentes balanceados entre la capacidad de la base de datos y el ancho de banda del hardware.

Después de haber desglosado los componentes del Fast Track Data Warehouse y teniendo en cuenta que  sólo funciona para almacenes de datos OLTP, se puede concluir que hay tres formas en que esta iniciativa nos ayuda a manejar las cargas de trabajo de una VLDB:

1.       Balance predeterminado a través de los componentes principales del sistema.
2.       Rendimiento predecible y listo para ser utilizado.
3.       Se centra en las cargas de trabajo

Hasta la próxima vez en esta serie de Recreaciones SQL y mientras tanto no duden en hacerme llegar sus comentarios.
Diviértanse pues la vida es corta. 8-)


La edad de los datos

La edad de los datos puede medirse tomando en cuenta la frecuencia con la que es consultado el dato. Es decir entre más frecuente sea la consulta de un dato este será de más utilidad. La utilidad de los datos radica en la relevancia que aportan a la información que se genera a partir de los mismos.
Así podemos identificar el ciclo de vida de los datos (DLC – Data Life Cycle):
1. Se registra un hecho que da origen a un dato (fuente del dato – Origen)
2. El dato se integra a un conjunto de datos de naturaleza similar (Crecimiento)
3. Los datos se ponen a disposición en diversas instancias (difusión del dato – Reproducción)
4. Los datos se interpretan y originan información de alguna índole o un nuevo dato (Madurez)
5. Los datos son almacenados en archivos históricos cuando se han desactualizado (Vejez y deceso)

El administrador de base de datos (DBA) es la persona que se encarga de llevar a cabo la administración del ciclo de vida de los datos (DLM – Data Life Cycle Management) dirigiendo los datos a través de la pirámide de información. El administrador comienza este manejo teniendo los datos más recientes a disposición del usuario. Conforme los datos van envejeciendo el número de usuarios que los consultan va disminuyendo y los datos comienzan a moverse del área de operaciones, a la administración operativa, a la administración táctica, a la administración estratégica, luego hacia los auditores internos para finalizar con los auditores externos.

En cada punto de este proceso administrativo, existen diferentes necesidades en cuanto a la disponibilidad de datos se refiere, así que el DBA debe planear como se llevara esto a cabo. SQL Server (a partir de la versión 2005) nos ofrece la posibilidad de particionar las tablas para poder ir desplazando los datos históricos hacia particiones de consulta y dejando disponibles los datos más actualizados a disposición de sus respectivos usuarios. SQL Server no solamente pone a nuestra disposición está característica sino que además nos proporciona asistentes que nos pueden guiar en el proceso en caso de no conocer la sintaxis para ello.
A continuación muestro los pasos para acceder a este asistente:
1.- Desde el SSMS, seleccionamos la base de datos que contiene la tabla que queremos particionar.
2.- A continuación seleccionamos la tabla que queremos particionar y hacemos clic botón derecho
3.- seleccionamos la opción Storage>Create Partition

4.- Aparecerá el asistente
5.- Seguir las indicaciones del asistente.

Como siempre SQL Server, nos facilita las tareas de administración y nos permite dedicarnos a otras actividades.
Saludos a todos y hasta el próximo apunte de esta serie mensual de “Recreaciones SQL”.

Diviértanse 8-)


Mudando el blog

He cambiado la ubicación de este blog a: http://www.granadostroncoso.com.mx
Si lo desean también pueden seguirme en Twitter a través de @SQLMiguelG
Saludos  8-)


Bienvenidos – Welcome

Bienvenidos a este espacio donde continuare escribiendo acerca de las curiosidades en tecnologías de la información, haciendo hincapié sobre todo en lo que se refiere a la plataforma de datos de Microsoft, encabezada por ese gran producto que es SQL Server.
Esperando que esta serie de comentarios sean útiles para el lector que nos honra con su visita, he titulado a este blog recreaciones SQL. Pueden consultar los comentarios que realice con anterioridad en mi anterior blog.
Trataré de escribir algunos posts en Inglés, cuando el tiempo me lo permita.
Saludos y diviértanse con sus datos.  8-)

Welcome to this space where I will continue writing about the sights in information technology, focusing especially in the Microsoft data platform, led by that great product that is SQL Server.
Hoping that this series of comments are useful to the reader who honor us with his visit, I titled this blog  SQL recreations. You can read the comments that do earlier in my previous blog (in Spanish, sorry).
I am going to try to write some posts in English, when time is on my side.
Regards and have fun with your data.  8-)


Detalles en el MDX

Existen dos formas de usar el MDX, la primera es a través de enunciados dentro de una aplicación que nos devuelven un conjunto de datos y la segunda como una expresión para la formación de un miembro calculado dentro de un cubo de Analysis Services.
Ejemplo de un enunciado MDX (Enfoque desarrollador):


WITH MEMBER Measures.x AS SUM
(
MTD([Date].[Calendar].[Date].[July 20, 2002])
, [Measures].[Internet Freight Cost]
)
SELECT Measures.x ON 0
FROM [Adventure Works]

Ejemplo de una expresión MDX (Enfoque diseñador del cubo)


SUM(MTD([Date].[Calendar].[Date].[July 20, 2002]), [Measures].[Internet Freight Cost])

Algunos errores podrían presentarse debido a la falta de cuidado en la creación del miembro calculado. Veamos el siguiente ejemplo, tenemos la siguiente expresión para un miembro calculado:

SUM(MTD(), [Measures].[Internet Freight Cost])

La expresión en teoría debería traerme el acumulado de varios meses hasta el mes actual, tomando en cuenta que si una expresión de miembro no se especifica para la función MTD, el valor predeterminado es el miembro actual de la primera jerarquía, con un nivel de tipo Months en la primera dimensión de tipo Time en el grupo de medida.
Pero algunas veces los resultados que obtenemos no concuerdan con los datos que esperamos y comenzamos a desconfiar de la información contenida en nuestro cubo.
Lo primero que deberíamos hacer antes de empezar a culpar a alguien es verificar como está definida nuestra dimensión Tiempo dentro del proyecto de Analysis Services, ya que la mayor parte del tiempo nos olvidamos de definirla como una dimensión de tipo Time y no se diga de definir los niveles como Years, Months, Weeks o Days según sea el caso.

Una vez definidos los niveles de la dimensión y el tipo de dimensión los resultados solo dependerán de que es lo que encuentra el Analysis Services primero. Así que para estar más seguros solo debemos pasarle a la función MTD como parámetro una fecha valida (o aprovechar la propiedad CURRENTMEMBER) y verificar que nuestros resultados son correctos.  Recuerden que modificar una expresión de un campo calculado no requiere procesar el cubo en ningún momento.
Saludos y diviértanse mientras tanto 8-)


Be your own consultant

Customers believe that consultants know every tip and trick about some product or technology (some clients might think consultants have access to secret information), but nothing so far from reality than that. Consultants aren’t wizards. They have this nasty little secret called, best practices.
If we talk about SQL Server Analysis Services best practices, it seems to be that there is no much information about them. So where do people can find this information?  the answer is within SSAS itself. How can I be so sure of that?, well because as a data architect sometimes,in the BIDS environment, I see SSAS warnings when I am designing a cube or a dimension. When such a thing happen I know the Best Practices Analyzer is trying to help me, because the warning may be identifying a best practice that needs to be implemented to improve Analysis Services performance.
Now lets see how can we have access to the guidelines inside the Best Practices Analyzer. First of all you need to be inside the BIDS, then follow next steps:
1.- In Solution Explorer, right click the database and select Edit Database


2.- In the Database Designer, click the Warnings Tab


3.- Now you can explore the best practices that the Analyzer is using.


Paying attention to these best practices will save you a lot of headaches and also time and money when you call a consultant.
Have fun  8-)


Sea su propio consultor

Los clientes creen que los consultores conocen todos los consejos y trucos sobre algún producto o tecnología (algunos clientes llegan pensar que los consultores tienen acceso a información secreta), pero nada más lejos de la realidad que eso. Los consultores no son magos. Ellos tienen este pequeño secreto llamado, mejores prácticas.
Si hablamos de SQL Server Analysis Services mejores prácticas, parece ser que no hay mucha información sobre estas. Entonces, ¿Dónde la gente puede encontrar esta información? la respuesta está dentro de SSAS mismo. ¿Cómo puedo estar tan seguro de eso?, Porque como un arquitecto de datos, a veces, en el entorno de BIDS, veo las advertencias SSAS cuando estoy diseñando un cubo o una dimensión. Cuando tal cosa sucede sé que el Best Practices Analyzer está tratando de ayudarme, ya que la advertencia se puede estar identificando una buena práctica que necesita ser implementada para mejorar el rendimiento del Analysis Services.
Ahora vamos a ver cómo podemos tener acceso a las pautas dentro del Best Practices Analyzer. En primer lugar necesitamos estar dentro del BIDS, luego siga los pasos a continuación:
1 .- En el Solution Explorer, haga clic en la base de datos y seleccione Edit Database


2 .- En el Diseñador de bases de datos (Database Designer), haga clic en la pestaña Warnings


3 .- Ahora puede explorar las mejores prácticas que el analizador está utilizando.


Prestar atención a estas prácticas le ahorrará muchos dolores de cabeza y también tiempo y dinero al llamar a un consultor.
Que se diviertan 8-)


Organizando un Tweetchat

Como una alternativa a las tradicionales reuniones virtuales a través de un programa de streaming, podemos utilizar nuestras cuentas de Twitter y ponernos en contacto para charlar sobre cualquier tema que nos interese.  Esta vez les diré como organizar un Tweetchat.
¿Qué es un Tweetchat?
Se trata de una conversación en tiempo real que tiene lugar en Twitter, donde los participantes pueden interactuar unos con otros, y realizar un seguimiento de la conversación siguiendo un hashtag designado.
Requisitos para participar en un Tweetchat:
  • Ser usuario de Twitter
  • Tener el hashtag de la charla en la que se quiere participar

Tres sencillos pasos para participar en un Tweetchat:
1. Entrar al siguiente enlace http://tweetchat.com


2. Firmarse en la página web con su correspondiente usuario de Twitter


3. Escribir el hashtag  de la charla en la que se quiere participar


Los usuarios avanzados de Twitter pueden usar aplicaciones cliente como HootSuite o TweetDeck.
Diviertanse (hablando de SQL Server 2012) 8-)


PowerShell de Analysis Services

Sabemos que con la cantidad de datos que se tienen que administrar en sus diferentes modalidades de almacenamiento, los encargados de llevar a cabo esta tarea necesitan de herramientas que les permitan efectuar su trabajo de manera más rápida. De aquí que el uso de PowerShell como una herramienta que facilita la administración de las bases de datos SQL Server resulta de gran ayuda. En SQL Server no sólo contamos con SQL Server PowerShell (SQLPS) que nos ayuda a administrar las tareas del motor de base de datos (OLTP) sino que además también podemos contar con un conjunto de cmdlets que nos ayudan a administrar la parte de las bases de datos OLAP de Analysis Services. Lo cual se conoce con el nombre de Analysis Services PowerShell.

Analysis Services PowerShell consiste de lo siguiente:
  • El provider SQLAS, utilizado para navegar a través de la jerarquía del Analysis Management Object (AMO).
  • La invocación del cmdlet ASCmd utilizado para ejecutar scripts MDX, DMX o XMLA.
  • Cmdlets de tareas específicas para llevar a cabo operaciones de rutina tales como el procesamiento, la administración de roles, el manejo de particiones, respaldo y restauración.

Para llevar a cabo la instalación del proveedor PowerShell de Anlysis Services (SQLAS) en SQL Server 2012:
1. Ejecutar una sesión de PowerShell como administrador
2. Cambiar las políticas de ejecución a no restringidas:

3. Importar el módulo SQLPS. Con esto dejaremos disponibles los cmdlets contenidos en SQLPS, en la sesión actual de PowerShell

4. Importar el módulo SQLASCMDLETS. Con esto dejaremos disponibles los cmdlets para Analysis Services en la sesión actual de PowerShell.

Para probar que esta instalado
1. Creamos un archivo XMLA, para la restauración de la base de datos OLAP de AdventureWorks.

2. Navegar hasta la instancia de trabajo de SSAS en PowerShell

3. Restauramos una base de datos SSAS utilizando un archivo XMLA

4. Comprobamos que se ejecuto la restauración utilizando el SQL Server Management Studio y revisamos la instancia por defecto de SSAS.

Así es como ahorraremos tiempo en la administración de nuestros recursos de SQL Server.

Disfruten con sus datos 8-)


Impresiones del PASS Summit 2012

Estas son sólo mis impresiones de lo vivido durante el PASS Summit 2012.

El primer día del Summit se inició con una de esas charlas magistrales que siempre ofrecen los dirigentes de PASS y el patrocinador número uno del evento, por supuesto me refiero a Microsoft. Estas charlas tienen como principal propósito poner al tanto a la comunidad de hacia donde dirige Microsoft el SQL Server, así como de los nuevos servicios y nuevas características alrededor del mismo.
Bien, la plática comenzó con Bill Graciano presentando a los que hacen posible el funcionamiento de PASS como comunidad comenzando por los directivos y llegando hasta los organizadores de los SQL Saturdays, además explico cómo estaba organizado el evento y anunció la conferencia PASS Business Analytics el próximo 10,11 y 12 de Abril en Chicago.
Después toco el turno al Ted Kummert de Microsoft dar el anuncio de la salida del Service Pack 1 para SQL Server 2012 , cosa que nos emocionó a muchos sobre todo por las actualizaciones acumulativas que integra de los diferentes servicios de datos del producto ya que se pueden instalar como un conjunto y no cada una por separado. Lo que nunca mencionaron es que para los amigos que utilizan el entorno de desarrollo Visual Studio 2012 hay que instalar una actualización para utilizar SQL Server Data Tools.
Durante su presentación hablo de como SQL Server puede manejar una gran variedad y una gran cantidad de datos rápidamente a través de la innovación del hardware y del software, haciendo extensivo el acceso de los datos en la nube. Para lograr esto planteo tres objetivos:
1.  Acelerar los procesos de negocio y la penetración.
2. Administrar cualquier dato, de cualquier tamaño en cualquier parte.
3. Permitir generalizar el conocimiento.
Para el primer objetivo hablo de la estrategia in-memory que incluye PowerPivot, xVelocity Analytics Engine, xvelocity columnstore y próximamente Hekaton, que es una tecnología en memoria para OLTP.

Para llegar al segundo objetivo se presentó Polybase para la administración e integración de la data no relacional con la relacional y se anunció el lanzamiento del CTP de HDInsight para el server y para la nube. Este es una implementación optimizada de Hadoop sobre la plataforma Windows.

Además se anunció Parallel Data Warehouse SQL Server 2012 para H1 del 2013.

Para cubrir el tercer objetivo nos presentó el nuevo Excel 2013 como herramienta de Inteligencia de negocios.
El segundo día estuvo a cargo de algunos de los directores de PASS y de Quentin Clark por parte de Microsoft.
En lo que se refiere a PASS se presentaron a los ganadores del PASSion Award e hicieron mención de reconocimiento a algunas de las empresas que tuvieron más asistentes al summit.

Por parte de Microsoft la charla llevaba el título Data Lifecycle y en ella se hicieron demostraciones de las nuevas características que se están desarrollando para SQL Server, así como de las que ya tiene en su haber. En fin una conferencia que yo llamaría orientada a demos.
Pero como ya dije esto es sólo mi punto de vista así que los invito a que ustedes saquen sus propias conclusiones del evento. Para ello pueden revisar los siguientes vídeos:
Ted Kummert Keynote: Day One PASS Summit
Quentin Clark Keynote: Day Two PASS Summit
Dr. David DeWitt: Spotlight at PASS Summit
Experience PASS Summit 2012 part 1 (En este último vídeo aparezco en el minuto 2:56 ;-) )
Hasta la próxima y mientras tanto diviértanse con su Data 8-)


Recursos recuperados

(actualizado 27/Dic/2016)
En este post listare material que he tenido la oportunidad de generar a lo largo del tiempo. Algo de este material todavía se puede localizar en Internet y otra parte del material proviene de los resplados personales que hice cuando se produjo el material.
Este post ha sido actualizado y contiene más recursos disponibles que el anterior. Habrá que tomar en cuenta que algunos de los enlaces pueden de dejar de estar vigentes en el futuro y parte del material no sea accesible, en lo posible trataré de mantener este post actualizado. No pretendo generar una sección de recursos en el blog debido a que el enfoque del mismo ha cambiado y en adelante ampliaré mis posts a temas más centrados en los datos que en una herramienta específica.

SQL Server 2008 Base de datos Geoespaciales
El día de ayer (jueves 23 de Julio del 2009) tuve la oportunidad de compartir e intercambiar algunas experiencias respecto a la interacción que existe entre las diferentes disciplinas que tienen por objeto de estudio nuestro planeta a través de los mapas y las bases de datos en donde almacenan los datos (bases de datos geoespaciales), especificamente SQL Server 2008. La presentación que dí puede ser revisada en línea aquí mismo:

La eficiencia en tus manos
Sitio web: http://www.laeficienciaentusmanos.com/
Fecha: Miércoles 21 de abril del 2010
Título: Inteligencia de negocios con PorwerPivot en Excel 2010
Sitio de vídeos del evento: https://technet.microsoft.com/es-mx/video/la-eficiencia-en-tus-manos-hq
Ver vídeo en Internet
Vídeo en línea

SQL Server Back to Basics
Título: Introducción y fundamentos de SQL Server
Fecha: Martes 12 de octubre del 2010

Este navegador no soporta PDFs. Por favor descargue el PDF para verlo: Descargar PDF.


Título: Inteligencia de Negocios con SQL Server
Fecha: Martes 2 de noviembre del 2010

Este navegador no soporta PDFs. Por favor descargue el PDF para verlo: Descargar PDF.

Infrastructure to Application, la estrategia del nuevo Centro de Datos Dinámico
Fecha: Jueves 13 de Enero del 2011

Este navegador no soporta PDFs. Por favor descargue el PDF para verlo: Descargar PDF.


El Rincón de Peruzzo – SQL Server Denali (podcast)
Fecha: Lunes 17 de Octubre del 2011
Minuto: 21
Segundo: 27
Escuchar Podcast

Diplomado técnico en línea sobre SQL Server 2012
Fecha: Jueves 17 de mayo 2012
Módulo: 4
Título: ¿MDS, DQS, qué es eso? Lo nuevo de BI
Presentación en PDF
Vídeo en línea (Minuto:26  Segundo:32)

Presentación en línea

1er Simposio Latinoamericano de SQL Server
Fecha:22 de Junio de 2012
Título: Data Quality Fundamentals
Ver presentación en línea:

SQL Saturday #148
Fecha: Sábado 30 de Junio del 2012
Título: Data Quality Fundamentals

Este navegador no soporta PDFs. Por favor descargue el PDF para verlo: Descargar PDF.

PASS Summit 2012
En este último vídeo aparezco en el minuto 3
Experience PASS Summit 2012 part 1

Noches de Innovación
Fecha: 10 de Junio del 2015
Título: Geoanalytics facilito
Webcast

SQL Saturday #457
Fecha: Sábado 28 de Noviembre del 2015
Título: SQL Server aquí, allí y en todas partes

Este navegador no soporta PDFs. Por favor descargue el PDF para verlo: Descargar PDF.

Gracias por su interés en este blog y sigan divirtiéndose con sus datos. 8-)


Conexión a la base por defecto en Analysis Services

Muchas veces me he preguntado ¿a qué base de datos OLAP se conecta por defecto el SQL Server Analysis Services? Bien, pues la respuesta es al primer objeto creado en la colección de base de datos que no esté vacía.
La forma de verificarlo es realmente muy fácil, he aquí algo que pueden intentar:
1. Se conectan a una instancia de Analysis Services.
2. En la raíz hacen clic derecho para desplegar el menú flotante
3. Seleccionan la opción New Query de tipo DMX

4. Se ejecuta la siguiente consulta que utiliza un DMV para SSAS

/*Lista de los cubos y dimensiones de la base de datos en la que se está conectado*/
SELECT * FROM $SYSTEM.MDSchema_Cubes WHERE CUBE_SOURCE =1

5. Esta consulta te va amostrar los cubos y dimensiones de la base de datos a la que estas conectado por defecto.
6. De esta forma puedes saber cuál es la base de datos OLAP por defecto a la que se conecta el SSAS.
Espero que el tip les sea de utilidad.
Hasta la próxima
Mientras tanto diviértanse con sus datos. 8-)