Este es un blog técnico dedicado al desarrollo de software y análisis de datos, en el podrás encontrar artículos relacionados con estos temas y software de libre distribución para descargar, desarrollado por mi.
-
05/05/2016
En el artículo anterior de la serie hice un resumen de los elementos básicos de DirectShow: filtros, grafos de filtros y pines para conectar los elementos entre sí, y como podemos identificarlos utilizando la herramienta del SDK GraphEdit. En este artículo voy a mostrar cómo construir una “sencilla” aplicación de captura y reproducción de vídeo utilizando los interfaces que proporciona DirectShow, un subconjunto del modelo de objetos distribuidos de la plataforma COM de Microsoft.
[Leer Mas...] -
30/04/2016
Actualmente existen infinidad de dispositivos de captura de vídeo asequibles en el mercado, cualquiera puede hacerse con una cámara digital o una webcam a un precio razonable. Todos estos dispositivos se pueden controlar fácilmente desde un programa desarrollado por nosotros mismos utilizando DirectShow de Microsoft. DirectShow es un conjunto de interfaces que proporcionan un API genérico con el que se puede capturar y reproducir audio y vídeo sin importar la marca o modelo de cámara que utilicemos. También permite la grabación y reproducción de archivos en cualquier formato.
[Leer Mas...] -
24/04/2016
En muchas aplicaciones es necesario generar números aleatorios. Para esto, la plataforma .NET proporciona la clase Random, que permite generar valores pseudoaleatorios uniformemente distribuidos, lo que significa que todos los números tienen la misma probabilidad de aparecer en el resultado. Pero en algunos casos necesitamos generar valores aleatorios que sigan otros tipos diferentes de distribución. En este artículo vamos a ver cómo generar números aleatorios que sigan una distribución normal, con un sistema que podéis extender a cualquier tipo de distribución.
[Leer Mas...] -
09/04/2016
Usualmente, cuando realizamos un análisis de datos, consideramos que proceden de una distribución normal. De hecho, realizamos toda una batería de pruebas para verificar que se cumple este supuesto y, en caso de no ser así, tratamos de modificar los datos de manera que se cumpla. Esto es así porque la mayoría de las técnicas de análisis solo funcionan correctamente sobre datos normalmente distribuidos. Pero existen una serie de sistemas que presentan una dinámica compleja en los cuales no es válido aplicar esta hipótesis y en los que el ajuste de los datos solo conduce a distorsiones que invalidan los resultados.
[Leer Mas...] -
02/04/2016
Las vistas del catálogo contienen toda la información referente a la estructura de nuestras bases de datos: esquemas, tablas, campos de las tablas, tipos de datos de los campos, restricciones de integridad, código de los procedimientos almacenados, etc. Conocerlas es fundamental para desarrollar herramientas de gestión independientes de nuestra estructura de datos. En este artículo vamos a ver un ejemplo de una de estas herramientas, DbTextFinder, una sencilla aplicación que nos permitirá buscar texto en los registros de nuestra base de datos y dentro del código de las vistas y procedimientos almacenados.
[Leer Mas...] -
12/03/2016
En el anterior artículo de esta serie vimos cómo realizar el cálculo de errores estándar con pesos replicados en la base de datos PISA, en este artículo haremos un pequeño resumen de uno de los puntos más polémicos de estos estudios, el complejo sistema de puntuaciones implementado.
[Leer Mas...] -
28/02/2016
En el anterior artículo de esta serie vimos una introducción al análisis de datos PISA, con unos ejemplos de funciones en código R para realizar muestreos, y hablamos de los pesos muestrales, que ponderan a cada uno de los alumnos de manera que represente a un conjunto de individuos con las mismas características en lugar de a un solo alumno (no olvidemos que PISA pretende evaluar el efecto de las políticas educativas sobre el conjunto de la población del país, no sobre alumnos individuales). En el presente artículo, veremos cómo utilizar estos pesos a la hora de obtener estadísticos a partir de las muestras y veremos también como calcular los errores típicos de estos estadísticos utilizando pesos replicados.
[Leer Mas...] -
19/02/2016
Cada tres años, desde el año 2000, la OCDE (Organización para la Cooperación y Desarrollo Económico) realiza una serie de exámenes a nivel nacional en una serie de países a alumnos de 15 años para evaluar el grado de conocimientos en tres grupos principales de materias: ciencias, comprensión lectora y matemáticas. Se trata del programa PISA, cuya última edición se realizó en el año 2015.
[Leer Mas...] -
12/02/2016
En el artículo anterior vimos cómo consultar bases de datos POD con el programa WinPODUtil, en este artículo veremos cómo usar la herramienta para procesar los archivos CSV generados por las consultas, o cualquier otro archivo CSV. El formato de estos archivos consiste en una serie de líneas, la primera de las cuales debe contener los títulos de las columnas, con una serie de campos separados por el caracter punto y coma (;). Cada línea, excepto la primera, representa un registro de datos.
[Leer Mas...] -
05/02/2016
En artículos anteriores os he hablado del proyecto POD, una base de datos que centraliza el acceso a otras bases de datos de manera que se puedan consultar todas ellas a través de un interfaz común. En este artículo vamos a ver una herramienta que se utiliza para realizar filtrado de datos y consultas sobre cualquiera de las bases de datos integradas en POD.
[Leer Mas...] -
30/01/2016
PISA (Programme for International Student Assessment) es un programa de la OCDE (Organización para la Cooperación y el Desarrollo Económico) destinado a la evaluación de políticas educativas. Consiste en una serie de exámenes y encuestas realizados a estudiantes de 15 años, escuelas y padres a nivel nacional en una serie de países adheridos al programa (en el año 2012 hubo 65 países participantes, y en el 2015 ya son más de 70). Estos exámenes tratan de evaluar el nivel de conocimientos en tres áreas principales: comprensión lectora, ciencias y matemáticas.
En este artículo hago una breve introducción a la base de datos SQL Server creada a partir de los datos originales publicados por la OCDE
[Leer Mas...] -
07/01/2016
POD (Portal Open Data) es un proyecto que empecé cuando estaba sacando el MCSD Web Developer de Microsoft para hacer prácticas. Se trata de una base de datos en SQL Server a través de la que se accede a otras bases de datos de manera centralizada.
En este artículo hago una breve descripción de la base de datos de configuración de POD.
[Leer Mas...] -
02/01/2016
Todos los usuarios de Google Analytics acabamos sufriendo los ataques de una verdadera legión de bots spam referral que distorsionan todos los datos de nuestro sitio, pudiendo llegar a representar una cantidad de visitas muy superior a las de tráfico real.
En este artículo explico como eliminar todo el tráfico de este tipo definitivamente de nuestras estadísticas.
[Leer Mas...]