Diseño Relacional y Arquitectura

Módulo 1: Sentando las Bases del Pensamiento Crítico

La Gran Pregunta: ¿Por Dónde Empezamos?

El Enfoque Tradicional (Fragmentado)

Muchos cursos enseñan los temas como islas separadas: aprendes `SELECT`, luego `JOIN`, mucho después quizás algo de normalización, y la arquitectura se ve como un tema de "expertos".

El problema: Es como aprender las piezas de un motor sin haber visto nunca un coche completo. No entiendes cómo encajan ni por qué existen.

Nuestra Filosofía (Integrada)

Nosotros empezamos por el final: con la visión del arquitecto. Primero entendemos el "mapa" completo de las soluciones de datos para después dominar las herramientas necesarias para construir cada camino.

La ventaja: Cada concepto que aprendas tendrá un propósito claro dentro de un panorama más amplio.

El Continuo del Diseño de Datos

Estos no son temas separados. Son fases de un mismo proceso.

Un Vistazo al Panorama Arquitectónico

Cada arquitectura es un "patrón de solución" diseñado para un tipo de problema específico.

Los Bloques de Construcción Fundamentales

🏛️

Normalización

La técnica para organizar los datos en sistemas transaccionales, eliminando la redundancia y garantizando la integridad. Es el ADN de un buen diseño relacional.

🔑

Llaves

Son las "direcciones" y "conexiones" de nuestros datos. Definen la unicidad y las relaciones, permitiendo que los JOINS funcionen de manera fiable.

🗺️

Diagramas ERD

Son los planos. El lenguaje visual que usamos para diseñar, discutir y entender la estructura de la base de datos antes de construirla.

Dominar estos tres pilares nos permite construir CUALQUIERA de las arquitecturas que vimos de forma correcta y eficiente.

Nuestro Laboratorio: ¿Por Qué Databricks?

Para explorar todas estas arquitecturas, necesitamos un entorno de trabajo versátil. Usaremos Databricks porque es una plataforma unificada que nos permite:

  • Simular un Data Lake sobre almacenamiento en la nube.
  • Construir un Lakehouse usando su motor Delta Lake.
  • Utilizar Spark SQL y PySpark para crear y transformar cualquier modelo de datos.
  • Trabajar de forma colaborativa en un único entorno para ingeniería, ciencia de datos y análisis.

¡Ahora, a la Práctica!

Ahora que entendemos el mapa completo y la importancia de cada pieza, vamos a empezar nuestro primer taller.

Tomaremos un esquema de base de datos con problemas de diseño y, como arquitectos, propondremos mejoras aplicando los conceptos de Normalización y Llaves.