Skip to main content
cancel
Showing results for 
Search instead for 
Did you mean: 

Earn a 50% discount on the DP-600 certification exam by completing the Fabric 30 Days to Learn It challenge.

Reply
szelenko
Frequent Visitor

Enfoque recomendado para un proyecto grande

Hola amigos,

actualmente trabajando en un gran proyecto para una compañía de seguros.
Hasta ahora tengo aproximadamente 10 dimensiones y 8 tablas de hechos.

Dimensiones (algunas de ellas)
- Fecha
- Clientes
- Localizaciones
- Coberturas
- Vehículos
- Agentes

Hechos (algunos de ellos)
- Siniestro
- Ventas
- Pagos
- Acumulación de políticas
- Estado de los documentos requeridos

Base de datos de origen: Firebird, pero para fines de rendimiento tengo un almacén de datos en una máquina virtual Centos, donde se actualizan diariamente los datos, que aloja una copia de las tablas necesarias en una base de datos Postgres.
Para desarrollar las dimensiones y los hechos, uso Dremio en la máquina virtual.
Power bi se conecta a Dremio en modo de importación. (Actualmente, el servicio PBI no admite Dremio en modo de consulta directa).

Teniendo en cuenta el gran volumen de datos (por ejemplo, en la tabla de hechos de ventas hay aproximadamente 7 millones de registros) tuve que usar la actualización incremental, haciendo que solo se actualizara los registros más recientes.

En el informe tengo muy pocas columnas calculadas, trato de hacer todo en sql, en dremio.
Tengo muchas medidas, más de 150.

Actualmente tengo 60 páginas.

A medida que se incluyen más tablas de dimensiones y tablas de hechos, abrir el proyecto y crear medidas se vuelve extremadamente lento, casi imposible de trabajar.

Tener proyectos paralelos (tenedores) con menos tablas no es una opción, ya que las preguntas a resolver implican casi todas las dimensiones y hechos.
Estoy usando las mejores prácticas de modelado de estrellas y soy muy cuidadoso con la necesidad de incluir una mesa.

He intentado usar este proyecto como la fuente de un proyecto en blanco y mejora en gran medida la velocidad.

Mi pregunta es:
¿Qué ruta/opción es adecuada para proyectos grandes y complejos?
¿Debo tener un proyecto con el modelo de datos pero sin páginas ni gráficos, que sirve como origen para varios informes independientes?

Desafortunadamente, debido a la política de la empresa, no puedo compartir capturas de pantalla o más información.

Agradezco sus comentarios.
saludos.

1 ACCEPTED SOLUTION
littlemojopuppy
Community Champion
Community Champion

Tuve un proyecto similar... alrededor de 50 tablas, 800 medidas, 50 millones de registros. Desarrollé el modelo de datos en Azure Analysis Services y lo usé como origen de docenas de informes individuales. Mantenimiento simplificado ya que las medidas estaban ubicadas en el centro, el rendimiento era adecuado (utilizado S0 AAS por lo que era una especie de débil, pero más tarde actualizado a S1). Puede que no sea una opción para ti, pero si es posible vale la pena mirarlo.

View solution in original post

6 REPLIES 6
v-stephen-msft
Community Support
Community Support

No @szelenko ,


¿Podría decirme si su problema ha sido resuelto?
Si es así, acédi es la solución. Más gente se beneficiará de ello.
O usted todavía está confundido al respecto, por favor proporcione más detalles sobre su problema.


Saludos
Stephen Tao

v-stephen-msft
Community Support
Community Support

No @szelenko ,

En primer lugar, Power BI Premium admite cargas de archivos de Power BI Desktop (.pbix) de hasta 10 GB de tamaño. Para obtener más información, consulte: ¿Qué es Power BI Premium?

En segundo lugar, en lugar de importar todos los datos a Power BI, intente usar el modo DirectQuery o una conexión en vivo.

Consulte: Usar DirectQuery en Power BI Desktop

¿DirectQuery, conexión en vivo o importación de datos? ¡Decisión difícil!

Si sigues el modo de importación, puedes seguir la guía de este artículo para optimizar su modelo de datos.

Saludos

Stephen Tao

Si este post ayuda,entonces considere Aceptarlo como la solución para ayudar a los otros miembros a encontrarlo más rápidamente.

StefanoGrimaldi
Resident Rockstar
Resident Rockstar

También recomendaría hacer una publicación de ideas: https://community.powerbi.com/t5/Custom-Visuals-Ideas/idb-p/CustomVisualsIdeas acerca de que Dremio no puede en consulta directa, vea si el equipo de Power BI puede trabajar en un conector para ello si una buena cantidad de personas lo necesita, esto puede ayudarle a optimizar aún más el modelo y enviar una instrucción a su SQL en él para que el origen procese parte de los datos antes de enviarlo a BI.





Did I answer your question? Mark my post as a solution! / Did it help? Give some Kudos!

Proud to be a Super User!




StefanoGrimaldi
Resident Rockstar
Resident Rockstar

Oye

que en la ruta de rigth en realidad, tirando como cosas básicas, tranformación, filtros, etc. en la fuente de datos para obtener un dato más limpio es una buena idea,

- tener un modelo principal como base para los informes hacen que el modelo grande mor sea manejable:

StefanoGrimaldi_0-1609082697669.png

de esta manera usted tiene un modelo central y ellos en vivo conection a los informes, (también en diciembre lanzar allí una nueva capacidad que aumentan este tema características ( https://docs.microsoft.com/en-us/power-bi/connect-data/desktop-directquery-datasets-azure-analysis-s... ) esto agrega un nivel completamente nuevo a los modelos compuestos),





Did I answer your question? Mark my post as a solution! / Did it help? Give some Kudos!

Proud to be a Super User!




Gracias Stefano (de acuerdo a tu captura al parecer hablas español al igual que yo 😀 ).

Voy a probar el enfoque planteado y además voy a consultar con algún partner de Microsoft si puedo armar el data warehouse en la nube para obtener los mejores resultados.

littlemojopuppy
Community Champion
Community Champion

Tuve un proyecto similar... alrededor de 50 tablas, 800 medidas, 50 millones de registros. Desarrollé el modelo de datos en Azure Analysis Services y lo usé como origen de docenas de informes individuales. Mantenimiento simplificado ya que las medidas estaban ubicadas en el centro, el rendimiento era adecuado (utilizado S0 AAS por lo que era una especie de débil, pero más tarde actualizado a S1). Puede que no sea una opción para ti, pero si es posible vale la pena mirarlo.

Helpful resources

Announcements
LearnSurvey

Fabric certifications survey

Certification feedback opportunity for the community.

PBI_APRIL_CAROUSEL1

Power BI Monthly Update - April 2024

Check out the April 2024 Power BI update to learn about new features.

April Fabric Community Update

Fabric Community Update - April 2024

Find out what's new and trending in the Fabric Community.