Glossário Abrangente de Termos de Análise de Dados e BI
Bem-vindo ao nosso glossário abrangente dedicado aos termos essenciais e conceitos dentro dos domínios da Análise de Dados e Inteligência de Negócios (BI). Navegar pelo complexo cenário de dados pode ser desafiador, especialmente com o contínuo surgimento de novas tecnologias, metodologias e terminologias. Seja você um estudante, analista em ascensão, cientista de dados, executivo de negócios ou simplesmente um aprendiz curioso, este glossário foi projetado para ser sua bússola de navegação, iluminando o caminho com definições claras e concisas.
Nosso glossário atua como um recurso dinâmico, fornecendo clareza e entendimento para termos que vão desde os elementos fundamentais de dados até técnicas analíticas avançadas. Cada termo é cuidadosamente explicado com o objetivo de oferecer uma visão equilibrada, acessível a leitores de vários níveis de expertise. Aqui, você encontrará não apenas definições, mas também explicações breves que fornecem contexto e relevância para aplicações do mundo real.
Embarque em sua jornada de aprendizado com confiança, armado com um recurso que desmistifica o jargão e as complexidades da Análise de Dados e BI (Business Intelligence). Use este glossário como referência, auxílio de estudo ou como uma ferramenta para facilitar a comunicação em ambientes profissionais. Mergulhe, explore e aprimore seu conhecimento e compreensão da linguagem dos dados!
A
- Algorithm (Algoritmo): Um conjunto de regras ou procedimentos para resolver um problema. Na análise de dados, algoritmos são usados para analisar e processar dados a fim de extrair insights valiosos.
- Analytics (Analytics): A ciência de examinar dados para tirar conclusões e apoiar a tomada de decisões. Envolve coletar, processar e analisar grandes conjuntos de dados para descobrir padrões e tendências.
- Anomaly Detection (Detecção de Anomalias): Uma propriedade ou característica de uma entidade. Atributos contêm os dados que descrevem as entidades.
- API (Application Programming Interface) (Interface de Programação de Aplicativos): Um conjunto de regras que permite que diferentes entidades de software se comuniquem entre si. Na análise de dados, as APIs são frequentemente utilizadas para acessar dados de serviços ou plataformas externas.
- Association (Associação): Um relacionamento entre duas entidades ou objetos.
- Attribute (Atributo): Uma propriedade ou característica de uma entidade. Atributos armazenam os dados que descrevem as entidades.
- Augmented Analytics (Análise Aumentada): O uso de tecnologias avançadas como aprendizado de máquina e IA para automatizar a preparação de dados, a descoberta de insights e o compartilhamento. Isso aumenta a inteligência humana, tornando o processo analítico mais rápido e acessível para não especialistas.
B
- BI (Business Intelligence) (Inteligencia de Negocios): Un proceso impulsado por la tecnología que analiza datos y presenta información accionable para ayudar a ejecutivos, gerentes y otros usuarios finales corporativos a tomar decisiones comerciales informadas.
- Business Analytics (Análisis aumentado): Un proceso impulsado por la tecnología que analiza datos y presenta información accionable para ayudar a ejecutivos, gerentes y otros usuarios finales corporativos a tomar decisiones comerciales informadas.
- Big Data (Gran cantidad de datos): Conjuntos de datos extremadamente grandes que pueden ser analizados para revelar patrones, tendencias y asociaciones. También se refiere a conjuntos de datos extremadamente grandes que son demasiado grandes o complejos para ser manejados por software de procesamiento de datos tradicional. Los datos grandes se caracterizan por su volumen, variedad y velocidad.
C
- Calculated Metric (Métrica Calculada): Una métrica derivada de cálculos matemáticos en una o más medidas existentes. Se utiliza para crear nuevas perspectivas a partir de los datos disponibles.
- Cardinality (Cardinalidad): Describe los atributos numéricos de la relación entre dos entidades o tablas.
- Column (Columna): En una tabla, una columna contiene datos para un solo atributo de una entidad.
- CSV (Comma Separated Values)(Valores Separados por Comas): Un formato de archivo simple utilizado para almacenar datos tabulares, como una hoja de cálculo o una base de datos. Cada línea del archivo representa un registro de datos, y cada registro consiste en uno o más campos, separados por comas.
- Composite Key (Clave compuesta): Una clave primaria que consta de más de un atributo.
- Constraint (Restricción): Reglas aplicadas a las columnas de datos para preservar su precisión y confiabilidad.
- Conceptual Model (Modelo Conceptual): Una representación abstracta de las relaciones y entidades dentro de un sistema. Se centra en la comprensión de alto nivel del sistema y proporciona una base para crear modelos más detallados. El modelo conceptual ayuda a definir la estructura y alcance del modelo de datos, sirviendo como un plan para diseñar el esquema de la base de datos y las relaciones entre entidades.
- Correlation (Correlación): Una medida estadística que describe la asociación entre dos variables.
- Clustering (Cluster Analysis) (Análisis de Clústeres): Una técnica utilizada para agrupar puntos de datos o elementos que son similares entre sí. Se utiliza frecuentemente en investigación de mercado, reconocimiento de patrones y análisis de datos para identificar y aprovechar patrones dentro de los datos.
D
- Database (Base de datos): Una colección estructurada de datos que se puede acceder, gestionar y actualizar fácilmente.
- Database Management System (DBMS) ( Sistema de Gestión de Bases de Datos): Software que maneja el almacenamiento, recuperación y actualización de datos en un sistema informático.
- Data Cleansing (or Data Cleaning) (Limpieza de Datos): El proceso de identificar y corregir (o eliminar) errores e inconsistencias en los datos para mejorar su calidad.
- Data Dictionary (Diccionario de datos): Una colección de descripciones de objetos de datos o elementos en un modelo de datos.
- Data Exploration (Exploración de Datos): El proceso inicial de analizar un conjunto de datos para descubrir sus principales características y comprender su estructura, variables y valores. La exploración de datos es crucial para familiarizarse con un conjunto de datos, identificar anomalías y detectar patrones o tendencias. Este proceso a menudo implica resumir las principales características de un conjunto de datos utilizando métodos visuales (gráficos, diagramas, etc.) y estadísticas descriptivas.
- Data Lake (Lago de Datos): Un repositorio de almacenamiento que contiene una gran cantidad de datos en su formato nativo. Los data lakes permiten el almacenamiento y análisis de datos no estructurados, lo cual no es posible con las bases de datos tradicionales.
- Data Mart (Mercado de Datos): Un subconjunto de un almacén de datos que soporta los requisitos de un departamento o función específica.
- Data Migration ( Migración de datos): Este es el proceso de seleccionar, preparar, extraer y transformar datos, y transferirlos permanentemente de un sistema de almacenamiento informático a otro. Este proceso es frecuentemente necesario cuando una organización decide utilizar un nuevo sistema informático o aplicación. La migración de datos es crucial para garantizar que los datos se transfieren de manera precisa y segura, y que sean accesibles y funcionales dentro del nuevo sistema. Este proceso a menudo implica la limpieza de datos y la adición de nuevas estructuras de datos.
- Data Mining (Minería de datos): La práctica de examinar grandes bases de datos para generar nueva información. Las técnicas de minería de datos descubren patrones y relaciones en los datos que pueden no ser evidentes a través de análisis tradicionales.
- Data Modeling (Modelado de Datos): El proceso de crear un modelo de datos para los datos que se almacenarán en una base de datos. Este proceso implica definir cómo se conectan, acceden y almacenan los datos.
- Data Science (Ciencia de los datos): Un campo interdisciplinario que utiliza métodos científicos, procesos, algoritmos y sistemas para extraer conocimiento y perspectivas de datos estructurados y no estructurados.
- Data Source (Fuente de datos): El lugar desde donde proviene los datos. Esto puede ser una base de datos, un almacén de datos, un lago de datos o fuentes de datos externas accedidas a través de APIs u otros medios.
- Data Transformation (Transformación de datos): El proceso de convertir datos de un formato o estructura a otro. A menudo implica limpiar, agregar, enriquecer y reformatear los datos.
- Data Type (Tipo de datos): El tipo de datos que se pueden almacenar en un atributo, como entero, cadena de texto, fecha, etc.
- Data Walls (Los muros de datos): Visualizaciones de datos utilizadas para rastrear y mejorar el rendimiento de individuos o grupos dentro de una organización. Los muros de datos se utilizan con frecuencia en educación y ventas para fomentar la mejora y la competencia.
- Data Warehouse (Almacén de Datos): Un repositorio central de datos integrados recopilados de una o más fuentes dispares. Almacena datos históricos y actuales en un solo lugar y se utiliza para crear informes y análisis de datos. Los almacenes de datos son componentes esenciales en el campo de la inteligencia empresarial, permitiendo la recuperación y análisis de datos para respaldar los procesos de toma de decisiones.
- Decision Trees (Árboles de Decisión): Un enfoque de modelado predictivo. Los árboles de decisión se utilizan para tareas de clasificación y regresión, proporcionando una representación gráfica que ilustra el proceso de toma de decisiones. El árbol se construye de tal manera que divide los conjuntos de datos en subconjuntos basados en el valor de las variables de entrada, lo que finalmente conduce a una salida o decisión predicha..
- Descriptive Analytics (Análisis descriptivo): Esta es la etapa inicial del procesamiento de datos, resumiendo y visualizando datos históricos para identificar patrones, tendencias e ideas. La analítica descriptiva ayuda a las empresas a entender lo que ha sucedido en el pasado y analizar las métricas de rendimiento, proporcionando una base sólida para análisis y toma de decisiones adicionales.
- Dimension (DIM or DIMS) (Dimensión): Una estructura que categoriza los datos. Las dimensiones se utilizan para segmentar y dividir los datos en un almacén de datos, proporcionando un medio para organizar y agrupar los datos. Por ejemplo, una dimensión de "Tiempo" podría incluir niveles jerárquicos como año, trimestre, mes y día. Las dimensiones ayudan en el análisis de datos de diversas formas y son fundamentales para crear informes significativos.
- Dimensionality Reduction (Reducción de dimensionalidad): Esta es una técnica utilizada en análisis de datos y aprendizaje automático para reducir el número de variables de entrada en un conjunto de datos. La reducción de dimensionalidad es esencial al tratar conjuntos de datos con un gran número de variables (alta dimensionalidad), ya que ayuda a reducir la complejidad computacional, mitigar el riesgo de sobreajuste y mejorar el rendimiento del modelo.
- Drill-Down (Profundizar): El proceso de explorar y visualizar datos a niveles más detallados. Los usuarios comienzan con datos de alto nivel y luego navegan hacia datos más granulares al enfocarse en elementos específicos. La funcionalidad de "drill-down" es crucial en tableros de control e informes, ayudando a los analistas y tomadores de decisiones a comprender los detalles detrás de los datos resumidos.
- Dashboard (Panel de control): Una interfaz visual que presenta datos de manera fácil de leer, a menudo utilizando gráficos y diagramas. Los paneles de control se utilizan comúnmente en la inteligencia empresarial para mostrar indicadores clave de rendimiento (KPIs).
E
- Entity (Entidad): Un elemento u objeto de importancia que debe ser representado en una base de datos.
- ETL (Extract, Transform, Load) (Extractar, Transformar, Cargar): Un proceso que implica copiar datos de una o más fuentes en un sistema de destino que representa los datos de manera diferente a la fuente o en un contexto diferente.
- Exploratory Data Analysis (EDA) (Análisis Exploratorio de Datos): Un enfoque para analizar conjuntos de datos con el fin de resumir sus principales características, a menudo utilizando gráficos estadísticos y otros métodos de visualización de datos.
- Entity Relationship Diagram (ERD) (Diagrama de Relación de Entidad): Una representación visual de entidades y sus relaciones entre sí.
F
- Fact Table (Tabla de hechos): En un esquema de estrella o copo de nieve, la tabla de hechos es la tabla central que contiene datos cuantitativos (medidas) y claves que se vinculan a las tablas de dimensiones.
- Feature Engineering (Ingeniería de características): El proceso de utilizar conocimientos del dominio para crear características que hagan que los algoritmos de aprendizaje automático funcionen. La ingeniería de características es crucial para aplicar el aprendizaje automático de manera efectiva.
- Foreign Key (Clave externa): Un atributo o conjunto de atributos en una tabla que hace referencia a la clave primaria de otra tabla.
- Forecasting (Previsión): El proceso de hacer predicciones sobre valores futuros basados en datos históricos. Esta técnica se utiliza en varios campos, incluyendo finanzas y predicción del tiempo.
G
- Grain (Granularity) ( Grano (Granularidad)): El nivel de detalle o profundidad de los datos almacenados en una base de datos o un conjunto de datos. Específicamente, en el almacenamiento de datos y en la inteligencia empresarial, el nivel de detalle de los datos representa el nivel más fino en el que los datos se almacenan. Comprender el nivel de detalle es crucial para el modelado y análisis efectivos de datos, ya que influye en cómo se pueden interpretar y utilizar los datos.
- GUI (Graphical User Interface) (Interfaz Gráfica de Usuario): Un tipo de interfaz de usuario que permite a los usuarios interactuar con el software a través de iconos gráficos e indicadores visuales, a menudo utilizado en herramientas de análisis de datos para facilitar la navegación y operación.
H
- Hierarchy (Jerarquía): En el modelado de datos, jerarquía se refiere a una disposición estructurada de elementos en la que los elementos se organizan en niveles, donde cada nivel representa un cierto grado de granularidad o detalle.
- Histogram (Histograma): Una representación gráfica de la distribución de un conjunto de datos, generalmente representada como barras. Proporciona una interpretación visual de los datos numéricos mostrando el número de puntos de datos que caen dentro de un rango de valores.
- Hadoop: Un marco de trabajo de código abierto para el almacenamiento y procesamiento distribuido de grandes conjuntos de datos. Hadoop está diseñado para escalar desde servidores individuales hasta miles de máquinas, cada una proporcionando computación y almacenamiento.
I
- Index (Índice): Una estructura de datos que mejora la velocidad de las operaciones de recuperación de datos en una tabla de base de datos a costa de escrituras adicionales y espacio de almacenamiento para mantener la estructura de datos del índice. Los índices se utilizan para ubicar rápidamente un registro de datos dado su clave de búsqueda sin tener que buscar en cada fila de una tabla de base de datos cada vez que se accede a ella. Los índices pueden crearse utilizando una o más columnas de una tabla de base de datos, proporcionando la base tanto para búsquedas rápidas aleatorias como para el acceso eficiente de registros ordenados.
- Insights (Información clave): Valiosas piezas de información derivadas del análisis de datos. Los insights a menudo revelan tendencias, patrones o anomalías que pueden ser significativas para las estrategias comerciales y la toma de decisiones.
- IoT (Internet of Things) (Internet de las cosas): Se refiere a la red de dispositivos físicos que están equipados con sensores y software para recopilar e intercambiar datos. El IoT genera grandes cantidades de datos que pueden ser analizados para obtener ideas.
- In-memory Computing (En la Computación en Memoria): Una tecnología que almacena datos en la memoria principal del sistema (en lugar de en unidades de disco tradicionales) para mejorar el rendimiento, ofreciendo una recuperación y análisis de datos más rápidos.
J
- JSON (JavaScript Object Notation) ( Notación de objetos JavaScript): Un formato de intercambio de datos ligero que es fácil de leer y escribir para los humanos, y fácil de analizar y generar para las máquinas. A menudo se utiliza para la comunicación asíncrona entre el navegador y el servidor.
K
- K-Means ( K-medias): AnUn algoritmo para dividir un conjunto de datos en k grupos.
- Key: Un atributo o conjunto de atributos que identifica de manera única una instancia de una entidad.
- KPI (Key Performance Indicator) ((Indicador Clave de Rendimiento): Un valor medible que demuestra cómo efectivamente una empresa está logrando sus objetivos clave de negocio. Los KPIs son utilizados por las organizaciones para evaluar su éxito en alcanzar metas.
L
- Linear Regression (Regresión Lineal): Un método estadístico utilizado para modelar la relación entre una variable dependiente y una o más variables independientes. El método asume que la relación entre las variables es lineal.
- Log Files (Archivos de registro): Archivos que registran eventos que ocurren en un sistema operativo u otras aplicaciones, o mensajes entre diferentes usuarios de un software de comunicación.
- Logical Model (Modelo Lógico): Representa las entidades lógicas, atributos y relaciones entre las entidades. Proporciona una vista conceptual de los datos, abstrayéndose de los detalles de almacenamiento físico e implementación. El modelo lógico se utiliza típicamente como un plano para diseñar la base de datos física, y ayuda a comprender cómo se debe organizar la información y cómo se manejan las relaciones entre los datos.
- Lookup Table (Tabla de búsqueda): Una tabla que contiene valores discretos que pueden ser utilizados para representar o traducir otros valores. Las tablas de búsqueda son frecuentemente utilizadas en procesos de transformación de datos para mapear valores de origen a valores de destino.
M
- Machine Learning (ML) ( Aprendizaje automático): Un subconjunto de IA que proporciona a los sistemas la capacidad de aprender y mejorar automáticamente a partir de la experiencia sin ser programados explícitamente. El ML es fundamental para analizar grandes volúmenes de datos y realizar predicciones o recomendaciones basadas en datos.
- Measure (Medida): En análisis de datos, una medida es un punto de datos cuantificable o métrica que puede ser analizada. Las medidas suelen ser datos numéricos que pueden ser agregados.
- Metric (Métrica): Una medida cuantificable utilizada para seguir y evaluar el estado de un proceso específico. En análisis de datos, las métricas se utilizan para proporcionar ideas y son la base para un análisis posterior.
- Metadata (Metadatos): Metadatos son datos que proporcionan información sobre otros datos. Los metadatos resumen información básica sobre los datos, facilitando la búsqueda y el trabajo con instancias particulares de datos.
- Multidimensional Analysis (Análisis Multidimensional): Procesamiento analítico que implica visualizar datos a través de diferentes dimensiones. Permite al usuario analizar datos desde diferentes perspectivas y soporta cálculos complejos.
- Multidimensional Cubes ( Cubos multidimensionales): En las bases de datos OLAP, estas son estructuras de datos que permiten la recuperación rápida de datos para consultas analíticas. Cada dimensión representa una perspectiva diferente para el análisis.
N
- Nested Queries ( Consultas anidadas): Consultas SQL en las que una consulta (la consulta interna) está incrustada dentro de otra consulta (la consulta externa). Las consultas anidadas se utilizan para recuperar datos que se utilizarán en la consulta principal como condición para restringir aún más los datos que se van a recuperar.
- Normalization (Normalización): Un proceso utilizado para organizar una base de datos con el fin de reducir la redundancia y mejorar la integridad de los datos mediante la agrupación de propiedades en tablas basadas en relaciones.
- NoSQL: Una clase de sistemas de bases de datos que proporcionan un mecanismo para el almacenamiento y recuperación de datos que se modelan de manera diferente a las relaciones tabulares utilizadas en las bases de datos relacionales. NoSQL es particularmente útil para almacenar datos no estructurados o semi-estructurados.
O
- OLAP (Online Analytical Processing) (Procesamiento Analítico en Línea): Una categoría de herramientas de software que permite a los usuarios analizar datos desde múltiples dimensiones, apoyando cálculos complejos, análisis de tendencias y modelado de datos sofisticado.
- OLAP Cube: Un array multidimensional de datos optimizado para consultas e informes. Los cubos se utilizan en bases de datos OLAP (Procesamiento Analítico en Línea) para permitir a los usuarios analizar datos a lo largo de múltiples dimensiones.
- OLTP (Online Transaction Processing) (Procesamiento de Transacciones en Línea): Una categoría de procesamiento de datos que admite aplicaciones orientadas a transacciones en tiempo real. Los sistemas OLTP están optimizados para un procesamiento de consultas rápido y para mantener la integridad de los datos en entornos de múltiple acceso.
- Outlier (Atípica o anomalía): Una observación que se encuentra a una distancia anormal de otros valores en una muestra aleatoria de una población. En el análisis de datos, identificar los valores atípicos es crucial para una interpretación precisa de los datos.
P
- Pattern Recognition (Reconocimiento de Patrones ): El proceso de identificar y clasificar patrones o regularidades en los datos. Es crucial en varias aplicaciones, incluyendo la minería de datos, análisis de imágenes y voz, y estadísticas.
- Predictive Analytics (Predicción Analítica): Técnicas que utilizan algoritmos estadísticos y aprendizaje automático para identificar patrones en los datos y predecir resultados y tendencias futuras. La analítica predictiva no dice qué sucederá en el futuro, pero proporciona una estimación.
- Predictive Modeling (Modelado Predictivo): El uso de estadísticas para predecir resultados futuros basados en datos históricos.
- Prescriptive Analytics (Análisis prescriptivo): No solo anticipa lo que sucederá y cuándo sucederá, sino que también proporciona explicaciones y acciones sugeridas para beneficiarse de las predicciones.
- Primary Key (Clave primaria): Un identificador único para un registro en una tabla.
Q
- Quantitative Data (Datos cuantitativos): Datos que pueden ser medidos y registrados con números. A menudo son recolectados para análisis estadístico con el fin de comprender patrones y realizar predicciones.
- Query (Consulta): Una solicitud de recuperación de datos de una base de datos. Las consultas se utilizan para encontrar datos específicos filtrando criterios específicos.
R
- R (Programming Language) (Lenguaje de Programación): Un lenguaje de programación y un entorno de software libre para computación estadística y gráficos. Se utiliza ampliamente para análisis de datos y visualización.
- Record (Registro): Una fila en una tabla, que contiene datos sobre un elemento específico.
- Referential Integrity (Integridad Referencial): Asegura que las relaciones entre las tablas en una base de datos se mantengan consistentes.
- Regression Analysis (Análisis de Regresión): Un conjunto de procesos estadísticos para estimar las relaciones entre variables. Ayuda a comprender cómo cambia el valor de la variable dependiente cuando se varía cualquiera de las variables independientes.
- Relationship (Relación): Describe cómo dos entidades interactúan.
- Relational Database (Base de datos relacional): Una tipo de base de datos que utiliza una estructura que permite a los usuarios identificar y acceder a los datos en relación con otra pieza de datos en la base de datos, a menudo utilizado para organizar y gestionar grandes cantidades de datos.
- Report (Informe): Un documento que comunica visualmente los resultados del análisis de datos. Los informes a menudo incluyen gráficos, tablas y texto narrativo para transmitir información y conocimientos derivados de los datos. Pueden ser interactivos o estáticos, y sirven como una herramienta vital para que los tomadores de decisiones comprendan el rendimiento empresarial, las tendencias y las áreas que necesitan atención.
- Row: Un registro en una tabla de base de datos.
S
- Sample (Muestra): Un subconjunto de individuos o puntos de datos dentro de una población estadística.
- Schema (Esquema): Un esquema o estructura que representa la configuración lógica de una base de datos. Define cómo se organiza la información y cómo se manejan las relaciones entre los datos. Los esquemas se utilizan para mapear la estructura de los datos y definir restricciones sobre los mismos, asegurando que los datos en la base de datos sean precisos y confiables.
- Segmentation (Segmentación): El proceso de dividir una unidad grande en segmentos más pequeños.
- SQL (Structured Query Language) (Lenguaje de Consulta Estructurado): Un lenguaje específico de dominio utilizado para gestionar y manipular bases de datos relacionales, incluyendo la consulta de datos, actualización de datos, inserción de datos y eliminación de datos de una base de datos.
- Self-Service BI ( BI de autoservicio): Esta es una forma de inteligencia empresarial en la que los usuarios finales pueden crear sus propios informes y paneles sin ayuda técnica. Las herramientas de BI de autoservicio están diseñadas para ser fáciles de usar, lo que permite a las personas sin experiencia técnica visualizar y analizar datos, lo que les permite tomar decisiones empresariales informadas.
- Slice and Dice ( Parte y pica): La capacidad de desglosar un conjunto de datos en partes más pequeñas y analizarlo desde diferentes perspectivas y niveles de detalle. Este proceso ayuda a los usuarios a analizar diversas dimensiones de los datos para extraer información relevante. Los usuarios pueden "cortar" los datos para ver un subconjunto y "triturar" los datos para analizarlos de diferentes formas.
- Sentiment Analysis (Análisis de Sentimientos): Una técnica utilizada para determinar la actitud, opinión o sentimiento expresado en un texto, que es esencial para el monitoreo de redes sociales, reseñas de productos y servicio al cliente.
- Snowflake Schema (Esquema de copo de nieve): Una extensión del esquema estrella utilizado en un almacén de datos, donde las tablas de dimensión relacionadas están normalizadas, lo que resulta en una estructura que utiliza menos espacio en disco y se asemeja a un copo de nieve.
- Star Schema (Esquema Estrella): Un tipo de esquema de base de datos en la inteligencia de negocios donde una tabla de hechos central se conecta a una o más tablas de dimensiones utilizando claves externas. Se asemeja a una estrella, con la tabla de hechos en el centro y las tablas de dimensiones irradiando hacia afuera.
- Statistical Analysis (Análisis Estadístico): La recopilación e interpretación de datos con el fin de descubrir patrones subyacentes.
- Stored Procedure (SPL) (Procedimiento almacenado): Una colección precompilada de una o más declaraciones SQL y, opcionalmente, declaraciones de control de flujo. Estas se almacenan bajo un nombre y se procesan en el servidor de la base de datos. Los procedimientos almacenados pueden ser invocados por disparadores, otros procedimientos almacenados o aplicaciones, y se utilizan para una variedad de tareas, como validación de datos, control de acceso y mejora de rendimiento.
- Structured Data (Datos estructurados): Datos que se adhieren a un modelo de datos predefinido y, por lo tanto, son fáciles de analizar.
- Supervised Learning (Aprendizaje supervisado): Un tipo de aprendizaje automático donde el algoritmo se entrena con un conjunto de datos etiquetados, lo que significa que cada ejemplo de entrenamiento está asociado con una etiqueta de salida.
- Surrogate Key (Clave Sustituta): Un identificador único para una entidad en el mundo modelado o un objeto en la base de datos. Es una clave artificial generada por el sistema, no derivada de los datos de la aplicación. Las claves sustitutas se utilizan a menudo como clave primaria en una tabla, sirviendo como sustituto de claves naturales que son complicadas o presentan otros problemas.
- System Performance (Desempeño del sistema): La efectividad y eficiencia de un sistema computacional en el procesamiento y análisis de datos para generar conocimientos e informes deseados. En el contexto de la analítica de datos y la inteligencia empresarial (BI), abarca varios aspectos, incluyendo el rendimiento de las consultas, la velocidad de carga de datos, la eficiencia en la transformación de datos y la capacidad de respuesta de las herramientas de visualización y generación de informes. Optimizar el rendimiento del sistema es crucial para garantizar que las herramientas de analítica de datos y BI puedan manejar grandes conjuntos de datos y análisis complejos de manera oportuna, proporcionando a los usuarios los conocimientos que necesitan sin demoras innecesarias. El rendimiento puede verse afectado por las especificaciones del hardware, la arquitectura del sistema, el diseño de la base de datos y la eficiencia de los algoritmos utilizados para el procesamiento y análisis de datos.
T
- Table (Tabla): Una estructura que organiza los datos en filas y columnas.
- Table Joins (uniones de tablas): Un método en SQL para recuperar datos de dos o más tablas basado en columnas relacionadas entre ellas. Los tipos incluyen INNER JOIN, LEFT JOIN, RIGHT JOIN y FULL JOIN.
- Tabular Models ( Modelos Tabulares): Un tipo de modelo de datos utilizado en análisis, especialmente con Microsoft Analysis Services, que es eficiente para consultas y ofrece un rendimiento rápido con grandes cantidades de datos.
- Transaction (Transacción): Una secuencia de consultas que representa una unidad lógica de trabajo.
- Time Series Data (Series de tiempo): Una serie de puntos de datos indexados, listados o representados gráficamente en orden cronológico. Se utiliza frecuentemente para seguir los cambios a lo largo del tiempo, como monitorear los precios de las acciones o rastrear datos de ventas.
- Training Data (Datos de entrenamiento): El conjunto de datos utilizado para entrenar un modelo de aprendizaje automático. Los datos de entrenamiento ayudan al modelo a comprender y aprender las relaciones entre los datos.
U
- Unique Key (Clave única): Un conjunto de uno o más atributos que identifica de manera única cada registro en una tabla de base de datos. Aunque similar a una clave primaria, las tablas pueden tener múltiples claves únicas pero solo una clave primaria. Una restricción de clave única asegura que todos los valores en la(s) columna(s) especificada(s) sean únicos en toda la tabla. Cada clave única corresponde a un registro específico y ningún par de registros puede tener el mismo valor de clave única.
- Unstructured Data (Datos no estructurados): Información que no tiene un modelo de datos predefinido o no está organizada de una manera predefinida. Incluye formatos como texto, imágenes y videos.
- Unsupervised Learning (Aprendizaje no supervisado): Un tipo de aprendizaje automático en el que se proporciona al algoritmo datos sin instrucciones explícitas sobre qué hacer con ellos. El sistema intenta aprender los patrones y la estructura a partir de los datos.
V
- Variable: Una característica o atributo que puede asumir diferentes valores. En análisis de datos y aprendizaje automático, las variables se pueden categorizar como dependientes (objetivo) o independientes (característica).
- View (Vista): Una tabla virtual que representa el resultado de una consulta SELECT.
- Visualization (Visualización): La representación de datos en un formato gráfico o pictórico. Las herramientas y técnicas de visualización ayudan a los analistas a entender conjuntos de datos complejos al organizar los datos en un contexto visual.
W
- Web Analytics ( Analista de la red): El proceso de analizar el comportamiento de los visitantes en un sitio web. Ayuda a atraer más visitantes, retener o atraer nuevos clientes, o aumentar el volumen económico que cada cliente gasta.
X
- XML (eXtensible Markup Language) (Lenguaje de Marcado Extensible): Un lenguaje de marcado diseñado para almacenar y transportar datos. Utiliza etiquetas para definir elementos dentro de los datos, lo que lo hace legible tanto para humanos como para máquinas.
Z
- Z-Score: Una medida estadística que describe la relación de un valor con la media de un grupo de valores. Se mide en términos de desviaciones estándar de la media, lo que ayuda a identificar valores atípicos en los datos.
Aprenda Power BI estudiando informes del mundo real
Descarga archivos de informe PBIX gratuitos utilizados en situaciones del mundo real y adáptalos para tus propios proyectos e informes.
Directory Listing Report
This PBIX file shows what is possible using Power BI various Map Visuals (Map, Filled Map and ESRI ArcGIS). The data was taken from a listing on Microsoft website, transformed and built to allow for Geo grouping, filtering and price comparison.
Demystifying Business Intelligence
This Book will introduce the reader to the world of Business Intelligence, what is it and what are its uses. In the book we explain in detail the various components that make up a BI solution for any size of business and professionals.

