Nueva Guía de análisis y diseño de tratamientos en firmes existentes

Los trabajos de mantenimiento de pavimentos suponen una ingente inversión para las Administraciones, la cual se va incrementando año tras año; en muchos países, tras la ingente inversión en nuevas vías, ahora es necesario llevar a cabo una inversión nada desdeñable en mantener el buen estado de éstas.

De acuerdo a un estudio de la Asociación Española de la Carretera (Necesidades de Inversión en Conservación 2017-2018), las infraestructuras viarias españolas que pueden suponer un patrimonio de alrededor 145.000 millones de Euros requieren una inversión de al menos 6.574 mill. de euros únicamente en pavimentos para alcanzar unas características adecuadas, cifra muy relevante que implica un enorme esfuerzo inversor.

A diferencia del diseño de un firme nuevo en donde el dimensionamiento se rige en unas reglas determinadas, la auscultación de defectos de firme y diseño de actuaciones en el mismo se basa en mayor medida en la experiencia y conocimiento del Ingeniero responsable de este mantenimiento.

En este sentido cada vez son más abundantes las publicaciones que analizan posibles anomalías en pavimentos existentes, añadiéndose recientemente una publicación de una considerable relevancia. Se trata de la Guía “Pavement evaluation y treatment design” elaborada por el departamento de carreteras de Australia y Nueva Zelanda y que siempre ha sido una referencia internacional en el diseño y tratamiento de pavimentos.

Esta publicación, además de recoger el estado del arte en relación con los principales métodos de auscultación de firmes, propone tratamientos a de rehabilitación tanto para firmes flexibles como rígidos, desarrollando métodos de dimensionamiento analíticos y empíricos.

La guía “Pavement evaluation y treatment design” es de libre distribución y puede ser descargado por el técnico tras un breve registro en la siguiente dirección:

https://austroads.com.au/publications/pavement/agpt05/media/AGPT05-19_Guide-to-Pavement-Technology-Part-5-Pavement-Evaluation.pdf

 

Autor: Juan José Álvarez González, docente del Máster en Diseño, Construcción y Mantenimiento de Carreteras de EADIC.

 

Perfil usual de los financiadores de APPs

Suele mencionarse al Project Finance como una técnica particular que permite en principio lograr dos objetivos cuando se trata de un proyecto de infraestructura, estos objetivos son:

  • Ser una técnica de financiamiento
  • Ser una técnica de asignación de riesgos

La asignación de riesgos, que de por si puede ser motivo suficiente para justificar realizar una infraestructura a través de Project Finance, podrá ser motivo de otor análisis, el objetivo ahora es ver como está técnica de financiamiento puede hacer viables proyectos que de otra forma no encontrarían fondos.

Una de las virtudes del Project Finance es que en términos generales procura no tener recurso hacia los patrocinadores, es decir que no se plantea a los flujos operativos de los patrocinadores ni a sus activos como la fuente primaria de repago del servicio de deuda en el que se incurra por el desarrollo del proyecto.

El objetivo de esto es el de no mezclar el perfil crediticio del corporativo patrocinador con el perfil crediticio del proyecto, de esta forma si el proyecto es lo suficientemente sólido, más allá de la realidad económica del patrocinador, el proyecto podrá ser atractivo para los proveedores de deuda.

Es aquí cuando aparecen los financiadores, que al mismo tiempo pueden llegar a cumplir un rol de patrocinio del proyecto. Por la naturaleza de los proyectos de infraestructura, estos suelen ser intensivos en capital y por lo tanto suelen contar con periodos de retorno largos.

En este sentido el perfil de un financiador de Project Finance suele ser distinto al de un financiador tradicional corporativo. Por un tema de calce de plazos y responsabilidad, la banca comercial suele mantenerse al margen de estos proyectos que son absorbidos por la banca de inversión y por otros actores de los mercados de valores.

 

Tratando de identificar el perfil que caracteriza a estos inversionistas, podríamos tomar las siguientes características:

  • Horizonte de inversión a largo plazo
  • Mayor apetito de riesgo
  • Capacidad de movilización de elevados montos
  • Sofisticada capacidad de análisis financiero
  • Capacidad de articulación de equipos técnicos especializados
  • Orientación hacia el desarrollo

Tomando en cuenta esta características, se puede indicar que en general los actores de los mercados financieros que reúnen estos criterios son:

  • Fondos de Pensiones
  • Bancos de Inversión
  • Fondos de Inversión Especializados
  • Entidades Multilaterales de Desarrollo
  • Bancos de Fomento
  • Family offices
  • Brazos Financieros de Desarrolladores de Infraestructura

Como se puede apreciar, al momento de plantear un financiamiento a través de Project Finance, es importante tener claro el perfil de los inversionistas en este tipo de proyectos, de forma que se pueda realizar una adecuada búsqueda de financiadores, tanto en el medio local, como a nivel internacional, ya que de la disponibilidad de los financiadores, puede llegar a depender la factibilidad del proyecto.

Autor: José Pablo Rocha Argandoña, docente del Máster en Financiación y Gestión de Infraestructuras de EADIC

 

Transporte aéreo: características esenciales

Hoy en día es muy importante conocer los elementos que determinan y caracterizan uno de los modos de transporte más rápidos que existen para el traslado y movimiento de mercancías.

Examinaremos las características esenciales del transporte aéreo internacional de mercancías destacando sus principales ventajas e inconvenientes.

Por el lado de las ventajas, cabe destacar:

1. Rapidez y puntualidad.

Es la principal característica de este medio de transporte. Solo el avión ofrece la posibilidad de situar una mercancía en cualquier lugar del mundo en 24 horas. La rapidez resulta crucial tanto para las mercancías perecederas como para las de alto valor y los envíos urgentes, en los que el factor coste es secundario. Otra ventaja de la rapidez es que, al adelantar la entrega, puede suponer ahorros financieros derivados de cobrar antes la exportación.

 

2. Agilidad administrativa.

Como consecuencia de esa gran rapidez y de la necesidad de que no se produzcan demoras en los procesos administrativos en los aeropuertos de origen y destino, los trámites (aduaneros, logísticos, etc.) a los que se ve sometida la carga aérea suelen ser muy ágiles, aunque de enorme exigencia. Actualmente se reseña la importancia de la inminente y progresiva implantación de la tecnología “blockchain” para mayor agilidad y rapidez de gestión.

 

3. Seguridad.

El avión es el medio de transporte más seguro, como evidencia el hecho de que es el que menor índice de siniestros registra. Este nivel de seguridad hace que las primas de seguro de transporte aéreo de mercancías sean también relativamente bajas (en tanto por ciento), si bien hay que tener en cuenta que dichas primas suelen elevarse (en importe final), pues dependen también del valor de las mercancías, que suele ser alto.

 

4. Amplia red de cobertura.

Con el transporte aéreo existe la posibilidad de enviar mercancía a prácticamente cualquier lugar del mundo. De hecho, algunos destinos solo son accesibles por este medio (por ejemplo, determinadas zonas del centro de África).

 

5. Flexibilidad.

Existe una amplia variedad de aviones, desde pequeñas avionetas hasta el Boeing 747 o el nuevo Airbus 380, que tienen enorme capacidad de carga.

 

Por el lado de los inconvenientes, podemos destacar los siguientes:

1. Restricciones y limitaciones técnicas. Debido a las dimensiones de las puertas y bodegas de los aviones, se aplican limitaciones en las dimensiones (tamaño y peso) de los bultos y mercancías que se pueden transportar por vía aérea. Aunque existe una creciente flota de aviones con gran capacidad de carga, es necesario informarse previamente de las restricciones que se aplicarán a los envíos.

2. Es un transporte caro. El transporte aéreo resulta excesivamente oneroso y, por consiguiente, no es competitivo para las mercancías de bajo valor añadido, como materias primas y productos semielaborados, muy dependientes del precio del transporte para su venta en los mercados internacionales.

 

CARACTERÍSTICAS ESPECÍFICAS DE LA CARGA AÉREA

Por lo comentado en el epígrafe anterior, podemos concluir que las mercancías que se transportan por vía aérea pueden ser de cualquier tipo, aunque siempre cumplirán alguna de las siguientes características:

  1. Ser de elevado valor, que permita recurrir a un transporte «caro» como es el aéreo.
  2. Ser urgente su envío por distintos motivos (mercancía perecedera, muestras comerciales previas a un contrato, imperativos médicos, de ayuda humanitaria, etc.).
  3. No sobrepasar unos tamaños o pesos determinados, pues deben cumplir con las limitaciones técnicas de los aviones.
  4. Suelen ser productos terminados (listos para su venta y consumo final).

Carga aérea en OACI 

En general, cuando la rapidez y la seguridad son requisitos esenciales, como en el transporte de productos perecederos (flores, fruta, pescado, etc.), envíos urgentes (productos médicos y farmacéuticos), moda, muestras previas al cierre de un contrato de compraventa, documentos, productos de «alto valor» (productos ópticos, informáticos, de telefonía, etc.), productos editoriales, componentes de automoción y repuestos en general, calzado, algunos animales vivos, etc., puede resultar conveniente asumir un coste superior al de los demás medios de transporte por llegar pronto a destino y, en esos casos, el transporte aéreo se convierte en un elemento clave en las cadenas logísticas de estos productos.

La actual globalización y el incremento de las ventas internacionales derivadas del comercio electrónico (e-commerce) están suponiendo un fuerte impulso para la carga aérea, que se adapta perfectamente a los pequeños envíos que requieren cobertura mundial y rapidez en la entrega al cliente.

Autor: Santiago Tovar Ferro, docente del Máster en Logística y Transporte de EADIC.

Los coeficientes de Coriolis y Boussinesq en la Hidráulica Práctica

En el temario del Máster de Obras Hidráulicas de Eadic hacemos un repaso de los conceptos hidráulicos que aplicamos habitualmente en estructuras hidráulicas.

Aunque incidimos sobre todo en aquellos temas que permiten abordar los dimensionamientos hidráulicos de forma práctica, somos conscientes de las simplificaciones empleadas. Una de las más empleadas es el uso de las velocidades medias de la sección en las formulaciones de referencia.

La distribución de velocidades en una sección hidráulica. Coeficientes de Coriolis y Boussinesq

Ilustración 1. Distribución de velocidades en un conducto a presión. Fuente: Universidad Central. https://slideplayer.es/slide/13874714/ 

 

Ilustración 2. Distribución de velocidades en una sección en lámina libre. Fuente Universidad Distrital Francisco José de Caldas. Bogotá http://repository.udistrital.edu.co/bitstream/11349/4964/1/ArdilaCardenasFernando2015.pdf

 

Tanto en las tuberías trabajando a sección llena como en el funcionamiento de cualquier sección en lámina libre, la distribución de velocidades no es uniforme en toda la sección transversal.

Esta distribución de velocidades obedece a los efectos de rozamiento del fluido con las paredes del conducto o canal, y también hay otro efecto que reduce algo la velocidad como es el viento en superficie y el rozamiento con el aire. Este último efecto es mucho menor.

 

El coeficiente de Coriolis

Cuando estudiamos la energía cinética de una sección la expresión Ec= ½ m v2, debemos aplicarla a todos los filetes o líneas de corriente por lo que el valor de la energía sería la integral de todas las energías cinéticas. Si empleamos una velocidad media en el cálculo de la Energía cinética de una sección cometemos un error porque no es lo mismo la media de las velocidades al cuadrado que el cuadrado de la velocidad media.

Se necesita, por tanto un coeficiente de paso. Este es el origen del coeficiente de Coriolis, dando origen a la fórmula corregida:

O empleando la expresión por unidad de peso que empleamos en Bernouilli:

Por tanto, el coeficiente de Coriolis, α, es la relación que hay entre la energía cinética que realmente lleva el flujo en una sección dada y la energía cinética en el supuesto de que la velocidad sea constante e igual a la velocidad media en la misma sección.

Ilustración 3. Expresión para el cálculo del coeficiente de Coriolis en virtud de Vh (velocidad medida a la cota h); V (velocidad media) ; A (área de la sección mojada) y dA es el incremento diferencial de área para distintos valores de Vh. https://www.cuevadelcivil.com/2011/02/coeficientes-de-distribucion-de.html

 

 

Los ensayos experimentales muestran que α varía en las secciones cerradas a presión dependiendo del régimen de funcionamiento. En el caso del régimen laminar el coeficiente de Coriolis puede ser alto, sin embargo en régimen turbulento el coeficiente es casi 1.

Ilustración 4. Distribución de velocidades en un conducto a presión. Izquierda régimen laminar, derecha régimen turbulento. Fuente: https://previa.uclm.es/area/ing_rural/Hidraulica/Diapositivas/DiapositivasTema4.pdf

Es necesario comentar que para tuberías en presión la adopción de un coeficiente aplicado a la altura de velocidad, tiene muy poca repercusión en la energía total dado que las velocidades de circulación son relativamente bajas. Para una velocidad media de 1 m/s, la altura de velocidad es de apenas 5 cm y el coeficiente de Coriolis aunque tuviera un valor alto apenas afectaría en 1 cm en conducciones en las que se trabaja con energías de muchos metros.

Por tanto, el uso del coeficiente de Coriolis, depende de la precisión de los cálculos pero en la gran mayoría de los casos se justificaría el empleo de un valor α = 1 o próximo a él. En secciones cerradas en régimen turbulento (habitual) o en secciones abiertas de alineación recta y suficientemente anchas, donde puede ser mayor la repercusión de otros parámetros hidráulicos que la aplicación del coeficiente corrector.

 

El coeficiente de Boussinesq

El coeficiente de Boussinesq, β expresa la relación entre la cantidad de movimiento real que hay en una sección dada y la cantidad de movimiento suponiendo que la velocidad se reparte uniformemente en toda la sección.

La expresión del incremento del impulso debido al cambio en la cantidad de movimiento generada por un fluido en movimiento sería:

Ilustración 5. Expresión para el cálculo del coeficiente de Boussinesq con la velocidad distribuida en altura Vh, la velocidad media V, el área A y el diferencial del área dA.  Fuente: https://www.cuevadelcivil.com/2011/02/coeficientes-de-distribucion-de.html

 

Donde ρ es la densidad, Q el caudal y ν la velocidad media de la sección.

 

Repercusión de los coeficientes que afectan a la velocidad media

Tal como hemos comentado, en conductos a presión donde el flujo es turbulento, el empleo tácito de coeficientes de distribución de velocidades con valores 1, tanto en α como en β, no afecta prácticamente en el cálculo hidráulico de los conductos.

En las obras en lámina libre tanto de conductos como de canales artificiales o naturales, y como resultado de la distribución no uniforme de velocidades en la sección, la altura de velocidad de un flujo en canales abiertos es por lo general mayor que el valor calculado con la velocidad media.

Además en lámina libre puede tener interés el análisis de la distribución de velocidades, sobre todo en efectos como la socavación y el control de erosión en el fondo y taludes de una sección, sin embargo para el cálculo hidráulico de una sección o una curva de remanso, normalmente empleamos un coeficiente de valor 1, tanto para Coriolis como para Boussinesq, cuyo error sería comparable a una mínima variación en la rugosidad de la pared que contiene al fluido.

Por tanto, sabemos que existe esa variación en la distribución de la velocidad y que somos capaces de obtener los parámetros correctores correspondientes, pero somos conscientes de que la repercusión, salvo fenómenos locales, es del mismo orden o inferior que el que nos puede ofrecer la estimación más o menos exacta de la rugosidad en el contacto agua contorno.

Ilustración 6. Coeficientes de Coriolis y de Boussineqs para canales naturales. Fuente: https://www.ingenierocivilinfo.com/2010/02/coeficiente-de-boussinesq.html

 

 

Este post forma parte de los temas tratados en el foro del Módulo I en el Máster en Diseño, Construcción y Explotación de Obras Hidráulicas. Título Propio UDIMA, impartido on-line a través de Eadic.

Autor: Víctor Emilio Flórez Casillas, docente del Máster en Obras Hidráulicas.

 

 

Vocación ganadera, la clave para el desarrollo del sector

La ganadería no es una profesión fácil. Existen muchos desafíos y dificultades que hacen que esta profesión está siempre sujeta a la incertidumbre. Por ello, es necesario tener vocación ganadera para soportar estas vicisitudes que trae aparejada la producción.

Cuando se habla de vocación ganadera, se habla de sentir pasión por el sector, hacer oídos sordos a problemas y enfrentar los inconvenientes como algo intrínseco a ser ganadero. El verdadero ganadero no se rinde, no se desanima y compensa el sufrir estos aprietos con la satisfacción de ver evolucionar a sus animales.

Se enfrenta al clima, el coste de las materias primas, la evolución de precios de la carne, la leche o los huevos. Los precios de mercado se comportan como si de una bolsa de valores se tratara. Los ganaderos son verdaderos “bróker agropecuarios”, que se ven obligados a realizar cálculos constantes para ajustar sus costes de producción.

Por este motivo, es muy importante entrar en el círculo de la globalización. Conocer tu posición frente a los diferentes competidores del mundo, te hace saber cuáles son tus diferenciaciones respecto al resto y cual sería tu modelo de negocio más adecuado para competir de manera eficaz en un mercado integrado como el actual.

¿Cuántos ganaderos están preparados para competir en un mercado global? Desde mi punto de vista, muy pocos.

Euquerio Iglesias Gómez con su semental Jornalero. Explotación ganadera 182-TO-026. Toledo. España.

 

Hay que prepararse, profesionalizarse para conseguir tener éxito en el mercado agropecuario. No todo vale, hay que conocer bien el mercado y saber posicionarse. Es importante además tener una mente empresarial para controlar y ajustar el balance económico y mantener e incrementar una cartera de clientes, además de manejar los proveedores y los productos que ofertan.

Un elemento importante en el sector agropecuario es el Gobierno, quien debe velar por los intereses de sus productores y realizar todos aquellos acuerdos que beneficien al sector de su país, así como invertir para el progreso de la agricultura y la ganadería. En un gran número de países, el sector agropecuario contribuye de manera significativa al balance comercial.

La oportunidad ganadera es constante e infinita pero hay que saber aprovecharla.

 

Autora: María Sofía Iglesisas, docente del Máster MBA en Gestión de empresas agropecuarias y dirección de agronegocios de EADIC.

Inteligencia Artificial vs Aprendizaje Automático vs Deep Learning vs Ciencia de Datos

Es el siglo XXI, y la tecnología está cambiando más rápidamente que nunca.

En el mercado laboral actual es necesario conocer, y diferenciar, entre Inteligencia Artificial (o Artificial Intelligence) vs Aprendizaje Automático (o Machine Learning) vs Deep Learning (¿aprendizaje profundo?) vs Ciencia de Datos (o Data Science).

Estos conceptos se han convertido en palabras de moda y, como efecto colateral, también son lucrativas opciones de carrera laboral.

Pero, a menudo, vemos que estos términos son arrojados en conversaciones o en artículos, como si fueran lo mismo, como si fueran intercambiables y… la verdad… no lo son.

La necesidad de empoderar a los lectores, como usted, para distinguir estos conceptos es lo que da origen a este artículo.

Entonces, ¿está listo para explorar AI vs ML vs DL vs DS?

¡Sí! Todo empezó en los años 50 del siglo XX, aunque no fue hasta hace poco que se convirtió en parte de nuestra vida diaria gracias a los avances en la disponibilidad de Big Data y el acceso a gran capacidad de computación a un precio asequible.

 

¿Qué es la inteligencia artificial?

A medida que entramos en un mundo fascinado y obsesionado con el término “Inteligencia Artificial”, se hace mucho más fácil utilizar este término y… no saber qué es.

La Inteligencia Artificial se ha convertido en un término genérico que se refiere a cualquier programa de computadora que, automáticamente, hace algo.
Muchas personas hacen referencias a la Inteligencia Artificial sin saber realmente lo que realmente significa.

Como ya hemos visto en este artículo, la IA no es algo nuevo… no es algo reciente… no es algo que acaba de aparecer: la Inteligencia Artificial, como disciplina académica, se fundó en los años 50 del siglo XX.

En realidad, el término “IA” fue acuñado por John McCarthy, un científico informático estadounidense, en 1956, en la Conferencia de Dartmouth.

Según John McCarthy, la IA es “la ciencia y la ingeniería de hacer máquinas inteligentes, especialmente programas informáticos inteligentes”.

La Inteligencia Artificial, abreviada como IA, se ocupa de impartir inteligencia humana a las máquinas, es decir, la IA se centra en el desarrollo de máquinas inteligentes que puedan pensar y actuar como humanos.

La Inteligencia Artificial funciona combinando grandes cantidades de conjuntos de datos con procesamiento rápido e iterativo y con algoritmos inteligentes. Esto permite que el software de Inteligencia Artificial aprenda automáticamente de patrones o características en esos vastos conjuntos de datos.

Un agente inteligente es un dispositivo que puede percibir su entorno y actuar para optimizar sus posibilidades de éxito.
Estas máquinas inteligentes imitan funciones cognitivas humanas, como el aprendizaje y la resolución de problemas.
¿Robots?… IA.
¿Coches sin conductor?… IA.
¿Ava de Ex Machina?… más IA.

En general, la Inteligencia Artificial es la inteligencia que las máquinas pueden representar: pueden pensar y actuar como humanos. Pueden realizar razonamientos lógicos, aprendizaje y también autocorrección.

La Inteligencia Artificial puede hacer predicciones y tomar decisiones.

La conclusión aquí es que la Inteligencia Artificial puede actuar.

La Inteligencia Artificial tiene, como campos de actuación, los siguientes escenarios:

  • Razonamiento y resolución de problemas
  • Representación del conocimiento
  • Planificación
  • Aprendizaje
  • Procesamiento de lenguaje natural (NLP)
  • Percepción
  • Movimiento y manipulación
  • Inteligencia social
  • Inteligencia general

Podría decirse que el hito de popularidad en la conciencia pública fue el programa de Inteligencia Artificial AlphaGo que, en Mayo del 2017, puso fin a los 2.500 años de supremacía de la humanidad en el antiguo juego de mesa Go usando un algoritmo de aprendizaje automático llamado “aprendizaje de refuerzo” (reinforced learning, del cual hablaremos más adelante).

A partir de ese momento, este tipo de noticias sobre Inteligencia Artificial se han convertido en parte de nuestros resúmenes diarios de noticias: automóviles autónomos, Alexa / Siri (y el resto de los asistentes digitales), reconocimiento facial en tiempo real en los aeropuertos, proyectos de genoma humano, algoritmos de Amazon / Netflix (y el resto de recomendadores), compositores / artistas de IA, reconocimiento de escritura a mano, los algoritmos de marketing por correo electrónico… y la lista puede seguir y seguir.

Mientras que la Inteligencia Artificial general es inteligencia artificial que puede realizar cualquier tarea intelectual que un humano puede hacer, la Inteligencia Artificial estrecha (narrow AI) a menudo realiza tareas específicas… y lo hace mejor que los humanos.

Si bien la IA general sigue siendo un sueño, el AlphaGo puede ser un ejemplo de IA estrecha.
Otro ejemplo puede ser la tecnología de reconocimiento facial de Facebook: reconocer caras es lo único que hace, y lo hace bien.

Otro ejemplo es el uso de sensores (IoT) que proporcionan datos que, a su vez, entrenan algoritmos de Machine Learning y, en última instancia, mejoran la IA. Esto beneficia la adopción de IoT con “analytics on the edge”.

 

¿Qué es el aprendizaje automático (o Machine Learning)?

“- Hola Siri, ¿qué es Machine Learning?”

Machine Learning se centra en dar a las máquinas la capacidad de aprender mediante el uso de algoritmos de entrenamiento utilizando en una gran cantidad de datos.

Machine Learning utiliza algoritmos y modelos estadísticos para realizar una tarea sin necesidad de instrucciones explícitas.

Hay tres tipos de aprendizaje dentro de Machine Learning:

  • Aprendizaje supervisado (y semi-supervisado)
  • Aprendizaje sin supervisión
  • Aprendizaje por refuerzo (Reinforced Learning)

El aprendizaje supervisado involucra el uso de una etiqueta de salida asociada con cada instancia en el conjunto de datos.

Este resultado puede ser discreto/categórico (rojo, perro, panda, señal de STOP, spam …) o de valor real.

En este momento, casi todo el aprendizaje es aprendizaje supervisado: los datos tienen etiquetas conocidas como salida.

Este aprendizaje involucra a un supervisor que tiene más conocimiento que la red neuronal misma.

Por ejemplo, el supervisor alimenta algunos datos de ejemplo sobre los cuales el supervisor ya conoce las respuestas.
En este caso, el supervisor guía el sistema etiquetando la salida.

Por ejemplo, un sistema de aprendizaje automático supervisado que puede saber qué correos electrónicos son “spam” y cuáles son “no-spam”. El algoritmo se entrenaría primero con el conjunto de datos de entrada disponibles (de millones de correos electrónicos) que ya están etiquetados con esta clasificación. De esta forma se ayuda al sistema de aprendizaje automático a aprender acerca de las características o parámetros del correo electrónico ‘spam’ y, de esta forma, aprenderá a distinguirlo de los correos electrónico que son “no-spam”.

Las técnicas como las regresiones lineales o logísticas y los árboles de clasificación de decisión se incluyen en esta categoría de aprendizaje.

 

El aprendizaje no supervisado es un aprendizaje “sin ayuda”, es decir, cuando los datos no tienen etiquetas de salida conocidas o ningún ciclo de retroalimentación.

Esto es útil cuando no hay un conjunto de datos de ejemplo con respuestas conocidas y se está buscando un patrón oculto.

En este caso, la agrupación, es decir, la división de un conjunto de elementos en grupos de acuerdo con algún patrón desconocido se lleva a cabo en función de los conjuntos de datos existentes.

El sistema tiene que entenderse a sí mismo a partir del conjunto de datos que proporcionamos.

En general, el aprendizaje no supervisado es un poco difícil de implementar y, por lo tanto, no se usa tan ampliamente como el aprendizaje supervisado.

Los tipos más populares de técnicas aplicadas en el aprendizaje no supervisado son la agrupación (o clustering) y asociación.

 

En el aprendizaje por refuerzo, en lugar de decirle al niño qué juguete poner en cada caja, recompensamos al niño con un “gran abrazo” cuando el niño toma la decisión correcta o haces una “cara triste” cuando el niño hace la acción incorrecta.

Muy rápidamente, después de algunas iteraciones, el niño aprende qué juguetes deben ir en cada caja: esto se llama aprendizaje basado en refuerzos.

De igual forma a lo descrito anteriormente, los sistemas se entrenan al recibir “recompensas” o “castigos” virtuales, esencialmente aprendiendo por prueba y error.

En el aprendizaje por refuerzo se aplica una estrategia basada en la observación y en la prueba (acierto-error) para lograr objetivos o maximizar la recompensa.

El agente toma una decisión observando su entorno. Si la observación es negativa, el algoritmo ajusta sus pesos para poder tomar una decisión requerida diferente la próxima vez.

Podríamos incluir al aprendizaje por refuerzo como parte del aprendizaje profundo (Deep Learning) en función del número de nodos ocultos y la complejidad de los algoritmos (más sobre esto más adelante).

Los algoritmos de aprendizaje por refuerzo intentan encontrar las mejores formas de obtener la mayor recompensa (las recompensas pueden ser ganar un juego, ganar más dinero o vencer a otros oponentes).

Machine Learning tiene, como campos de actuación, los siguientes escenarios:

  • Recolección de datos
  • Filtrado de datos
  • Análisis de datos
  • Algoritmos de entrenamiento
  • Prueba de algoritmos
  • Usar algoritmos para predicciones futuras

Algunos ejemplos comunes de Machine Learning son: los asistentes personales virtuales, los resultados refinados de los motores de búsqueda, el reconocimiento de imágenes y las recomendaciones de productos.

Machine Learning está dando a las máquinas la capacidad de aprender mediante el entrenamiento de algoritmos con grandes cantidades de datos. Esto es genial para hacer predicciones.

Por ejemplo, si le muestra a uno de estos algoritmos suficientes imágenes de un cachorro, identificará a un cachorro en una imagen que nunca antes había visto.

Pruébelo con imágenes de chihuahuas y de magdalenas (o muffins), o con imágenes de pulis blancos y fregonas (o trapeadores o coletos).

 

Quizás se estén preguntando: “¿- Cómo es esto diferente de la IA?”

Bueno, Machine Learning es un enfoque de la IA: es una forma de lograr la Inteligencia Artificial.
Es posible lograr la Inteligencia Artificial sin ML, pero eso puede requerir millones de líneas de código.

NOTAS:

  • AlphaGo, ya mencionado anteriormente en este artículo, ganó un juego contra un gran maestro (den 9) de Go.
    ¿Qué es el Go? Es un juego de mesa que tiene más posibles combinaciones que 10 elevado a 170, es decir, mayor que el número de átomos en el Universo.
    Para ello utilizó una combinación de aprendizaje de refuerzo y aprendizaje supervisado (por humanos) para construir redes neuronales de “valor” y “política”, y se utilizó un árbol de búsqueda para ejecutar las estrategias durante el juego.
    El software aprendió a partir de 30 millones de movimientos jugados en juegos de humano a humano.
  • Google DeepMind venció a los profesionales humanos en Starcraft II, una novedad en el mundo de la inteligencia artificial, ya que los juegos como Starcraft II son más difíciles de jugar para las computadoras que los juegos de mesa, como el ajedrez o el Go.

¿Qué es Deep Learning?

Deep Learning es un enfoque del aprendizaje automático (Machine Learning) que se centra en aprender representaciones de datos en lugar de algoritmos específicos de tareas.

Hace uso de las redes neuronales profundas, que están inspiradas en la estructura y función del cerebro humano:

 

Dichas redes neuronales artificiales están formadas por una gran cantidad de capas (con muchas capas ocultas apiladas una tras otra, de ahí su nombre).
Los datos se transforman a lo largo de múltiples capas antes de producir la salida.

Es decir, Deep Learning mejora la IA al habilitar muchas de sus aplicaciones prácticas.

Para ponerlo en perspectiva, AI nació primero. Luego llegó ML, que era un acercamiento a la IA. Y, finalmente, DL irrumpió e hizo posible todo lo que aún sólo se podía soñar en ese momento.

Deep Learning se utiliza en escenarios como el procesamiento del lenguaje natural (NLP), el descubrimiento de fármacos, en toxicología, en bioinformática, etc.

Algunos algoritmos Deep Learning son: Convolutional Neural Networks (CNN), Recurrent Neural Networks (RNN) y Generative Adversarial Networks (GAN).

Un ejemplo interesante es el sitio web thispersondoesnotexist.com, que utiliza el algoritmo de Machine Learning llamado Generative Adversarial Network (GAN) para crear imágenes de personas que no existen y muestra una nueva imagen cada vez que se actualiza el sitio web, y lo hace en alta resolución.

 

¿Qué es Ciencia de Datos (o Data Science)?

Ciencia de Datos (Data Science) es el término aplicado a un conjunto completo de herramientas y técnicas mediante las cuales es posible analizar datos y extraer información de ellos.

La Ciencia de Datos (Data Science) utiliza métodos, procesos y algoritmos científicos para que esto sea posible; combinando Machine Learning con análisis de datos “Big Data” procesados en entornos basados en cloud computing.

La Ciencia de Datos (Data Science) es un campo relacionado con la extracción de información de los datos mediante el uso de métodos y algoritmos científicos para que las empresas puedan beneficiarse (mejorar sus procesos, aumentar sus ganancias, retener a sus clientes, ofrecer mejores productos y servicios, etc.).

La Ciencia de Datos (Data Science) tiene mucho en común con toda la inteligencia artificial, el aprendizaje automático (Machine Learning) y el aprendizaje profundo (Deep Learning).

La Ciencia de Datos (Data Science) se enfoca en resolver problemas del mundo real y siempre tiene un humano involucrado (a diferencia de la IA, donde es la IA la que toma la acción).

El término “Data Science” llegó a ser una palabra de moda cuando en 2012, Harvard Business Review lo llamó “El trabajo más sexy del siglo XXI”.

El ciclo de vida de la ciencia de datos consta de 6 fases:
• Descubrimiento
• Preparación de los datos
• Planificación del modelo
• Construcción del modelo
• Comunicación de resultados
• Operacionalización

Y… ¿cómo terminaré este artículo?

Como algunos saben, tuve la oportunidad de trabajar en Microsoft en un momento único en la compañía: cuando Satya Nadella se convirtió en el nuevo CEO y los que vivimos “el viejo estilo” de gestión comenzamos a saborear “el nuevo estilo”.

Me gustaría terminar con una de mis citas favoritas de Satya Nadella: “- Creo en un mundo que tendrá abundante inteligencia artificial, pero donde lo que será escaso será la inteligencia real y las cualidades humanas, como la empatía. Creo que una gran innovación nace de la empatía que tienes con los problemas de las personas que quieres resolver “.

Autor: José Antonio Ferreira Queimada
Director de Servicios de Información en Copa Airlines
Profesor del Máster en Big Data y Business Intelligence @ EADIC

Gestión de proyectos BIM – Uso de las guías building smart

La utilización de modelos BIM para el desarrollo de proyectos de construcción, y su posterior utilización en la fase de construcción, e incluso en las fases posteriores de explotación del edificio construido, implica el uso de modelos que se adapten a la utilización en todas las fases del proceso para las que ha sido concebido.

No todos los modelos han de cubrir los mismos puntos y fases de proyecto, variarán en función de aquellos objetivos que queramos alcanzar en la construcción del edificio, alcanzando también fases posteriores como la puesta en marcha y mantenimiento.

La decisión del uso de modelos BIM en la realización de proyectos de construcción va a afectar al desarrollo de todo el proyecto, desde los primeros pasos, modificando cual va a ser la composición del equipo de trabajo, y la implicación de cada una de las diferentes disciplinas en el proyecto desde una fase más temprana, las diferentes fases en las que se divide y los entregables de cada una de estas fases.

El uso de herramientas de diseño colaborativas, que se da al realizar proyectos con BIM, va a desempeñar un papel fundamental en todo el desarrollo del proyecto, y va a hacer que sea muy relevante una correcta coordinación de todos los implicados a lo largo del proceso completo.

En la primera fase del proyecto se establecen los objetivos que queremos alcanzar con el modelo BIM. Realizaremos el modelo con unas u otras características para dar respuesta a los objetivos marcados, incluyendo unos u otros intervinientes en función de esos objetivos.

El coordinador BIM será el encargado de la coordinación de todos los implicados en el proyecto. Debe ser una persona con experiencia previa en proyectos, conocedor de todas las disciplinas que van a intervenir en las diferentes fases de proyecto, que se desarrollen con BIM y con un manejo adecuado de los programas de modelado con BIM.

Podemos dividir las acciones que son necesarias realizar sobre el modelo en las diferentes fases de proyecto en las que se efectúa cada una de ellas, atendiendo en cada una de estas fases los requisitos a cumplir.
Podemos resumir estas tareas en los siguientes puntos:

  • Evaluación de necesidades y objetivos, qué le pedimos al edificio terminado.
  • Diseño conceptual, incluye la preparación del plan de proyecto.
  • Planificación del diseño, detallando los objetivos de diseño. Se incluye en esta fase la selección del equipo de diseño del proyecto.
  • Control del diseño, incluyendo la comprobación de cumplimiento de los objetivos de diseño establecidos en las fases anteriores. En este punto se incluirá también la revisión de los puntos necesarios para el cumplimiento de las normativas aplicables.
  • Control del diseño detallado, comprobando que la documentación que se genera a partir del modelo es suficiente para construir.
  • Planificación de la construcción, entregando a los contratistas encargados de la ejecución de la obra la documentación necesaria. Si se debe utilizar los modelos BIM para la gestión de la obra, se entregarán los modelos en formato ifc.
  • Control de la construcción, nos asegurará que la construcción se está realizando de acuerdo con lo acordado.
  • Inspección final, entrega y recepción de obra. Es la fase en la que se prueban todas las instalaciones del edificio terminado. Cuando utilizamos el modelo BIM para la gestión de esta información estamos en la fase 7D de implementación de BIM, que se extiende también al siguiente punto.
  • Periodo de garantía, uso y mantenimiento.

La guía del Building Smart Spanish Chapter nº 11 está dedicada a la Gestión de un proyecto con BIM y nos detalla los requisitos y pasos a seguir para llevar a cabo el modelado y posterior tratamiento de los datos contenidos en el modelo para su utilización en las diferentes fases del proyecto.

https://www.buildingsmart.es/recursos/gu%C3%ADas-ubim/

Autor: Susana López García, docente del Master en Diseño de Interiores y gestión BIM de proyectos de Arquitectura e Interiorismo de EADIC

 

Voladuras. Parámetros de diseño

Para la ejecución de una voladura no solo es importante un buen conocimiento de las técnicas de manejo de explosivo y diseño de voladuras a cielo abierto o de interior. También es interesante un amplio conocimiento de la geología y geotecnia de los materiales que estamos trabajando. Así hemos de saber que existen dos tipos de parámetros a la hora de diseñar una voladura, algunos los controlamos nosotros u otros no. Es lo que vamos a tratar de forma breve en este artículo.

 

INTRODUCCIÓN

Ya hemos comentado que hay parámetros en las voladuras que no podemos controlar y son aquellos relacionados con la geología, no podemos cambiarlo ya que la mena se encuentra donde la naturaleza la ha creado.
Esta ha sufrido a lo largo de su historia geológica muchísimas alteraciones y transformaciones con las cuales tendremos que batallar tanto en el mineral como en la roca de caja, pero existen otros parámetros que nosotros como ingenieros de minas podemos controlar y modificar para obtener un resultado aceptable que siempre será fragmentar y desplazar la roca.

voladura_diagrama

 

PARÁMETROS

Los parámetros que nos condicionan una voladura son dos: los que no podemos controlar y los que sí podemos controlar, es decir podemos interactuar sobre ellos en el proceso de cálculo tanto en el diseño de la voladura como en las fases siguientes que tengamos que modificar para optimizar los resultados.

 

Parámetros no controlables

Son aquellos que nos vienen dados por la geología, la geotecnia y la producción de la mina. Estos parámetros son INMODIFICABLES, ya que no podemos interactuar sobre ellos, no son variable de nuestro sistema.

Como ejemplo podemos citar, la dureza de la roca, su tenacidad la densidad de la misma, su grado de fracturación, el grado de alteración la presencia de agua por citar algunos de ellos, como el motivo de este artículo no es entrar en cuestiones muy técnicas, se puede decir que uno de los parámetros más importantes es el grado de fisuración de la roca.

Recordemos que una voladura es el proceso en el cual se produce una onda de choque a gran velocidad seguida de la expansión de gases a alta presión y temperatura, por lo tanto, una roca que presente un alto grado de fracturación será un medio ideal para que esos gases creados por la voladura se escapen por la red de fisuras, lo que nos provocaría una pérdida de potencia y no conseguir el objetivo de fragmentar la roca, dando origen a repiés y grandes bloques.

La presencia de agua es otro factor importante a la hora de elegir un explosivo, es un elemento que si no lo tenemos en cuenta y escogemos un explosivo no resistente al agua tendremos problemas para incluso que la voladura pueda dispararse.

Pero no todo es inmodificable en el diseño y ejecución de voladuras, ya que como especialistas en el tema si podemos actuar en parámetros de diseño y en la selección de explosivos.

 

Parámetros controlables

Cuando queremos diseñar una voladura, podemos actuar sobre determinados parámetros que paso a detallar a continuación:

  1. Piedra (Burden): Es la distancia a la cara libre es un parámetro muy importante condicionado por el tipo de roca, el diámetro y el tipo de explosivo, como se puede ver excepto el tipo de roca los demás parámetros los podemos alterar o elegir. Una piedra muy corta o cercana a la cara libre puede dar origen a proyecciones por ello se podría elegir una piedra de mayor longitud pero recordando que es un parámetro que guarda relación con el diámetro de perforación y están muy relacionados.
  2. Índice de rigidez: relación altura de banco piedra (H/B) cuando es un valor alto, normalmente superior a 3 el desplazamiento y la trituración de la roca es fácil, en el caso de valores cercanos a 1 se pueden obtener malos resultaos, con repiés y grandes tamaños (siempre que nuestro objetivo no sea producir escollera).
  3. Espaciamiento: Es la distancia entre barrenos de una misma fila, un parámetro relacionado con la piedra. Un espaciamiento corto implica exceso de trituración de la roca y exceso de tamaños en el tramo de la piedra. Espaciamientos altos implican un mal aprovechamiento de la energía del explosivo con la aparición de sobre tamaños.
  4. Retacado: uno de los elemento más importantes de una voladura, cuando el barreno ya está lleno de explosivo es conveniente cerrarlo o taponarlo con los detritus de la perforación o con algún material arcilloso que compacte bien, que sea inerte y la longitud dependerá de muchos factores pero del 20% al 30% de la longitud el barreno. Es un parámetro que podemos y debemos ejecutar bien, sin excusas. Un mal retacado hace que toda o gran parte de la energía del explosivo se escape por el barreno, perdiendo rendimiento y obteniendo una fragmentación muy irregular, tal vez con sobre tamaños en la parte superior de la voladura y algo más triturada en la zonas del pie debido a la presencia de la carga de fondo.

 

Además de todos los parámetros comentados anteriormente, se pueden añadir la Sobreexcavación para poder asegurar una buena fragmentación en las zonas de pie de banco.

No se debe olvidar que la elección del explosivo es otro parámetro que podemos controlar y modificar a nuestro gusto.

Hoy en día existe una gran variedad de explosivos en el mercado y las empresas proveedoras ofertan una amplia gama para cubrir las necesidades que se pueden presentar en un proyecto, además de ofrecer asesoramiento técnico.

Leyendo los catálogos de estas empresas podemos seleccionar los explosivos adecuados a nuestro tipo de roca, condiciones de trabajo, en el caso de interior los explosivos de seguridad.

Por ejemplo en el caso de tener que trabajar con agua no elegiríamos un anfo a no ser que lo tengamos pensado encartuchar y podríamos seleccionar otro tipo, un hidrogel, una emulsión.

También la elección del explosivo está condicionada por las características geológicas de la roca, rocas más blandas o más duras requieren el uso de explosivos con distintas velocidades de detonación en función del resultado que estemos buscando.

Como conclusión decir que siempre tendremos la opción de interactuar sobre el diseño de nuestra voladura con los parámetros modificables que se han comentado a pesar que los inmodificables siempre estén presentes, hoy en día con las grandes herramienta disponibles tanto de medios como de software y la experiencia podremos diseñar una voladura con una alto rendimiento y con los objetivos deseados de proyecto.

 

Enlaces de interés:

https://www.orica.com/
https://www.maxamcorp.com/
https://cuadernodegeotecnia.wordpress.com/
https://efee.eu/
https://miningandblasting.wordpress.com/

 

Autor: Alfonso Gutiérrez Gómez, docente del Máster en Minería: Planificación y Gestión de Minas y Operaciones Mineras de EADIC

 

Las ciudades se mueven: de la Datapenia a la Serendipia

Un término cuasi médico y con sonido a flojera sanguínea, como la “datapenia” [da´tah-pe´ne-ah] <<Ausencia o falta de datos y analítica fiables>>, lleva a las buenas ciudades a tomar malas decisiones. La falta de datos es un problema sistémico.

Por suerte, nuestro pronóstico es muy favorable; estamos en condiciones de erradicar la datapenia de las ciudades. El instrumental para su tratamiento, está compuesto por redes ubicuas de nodos IoT y herramientas software para el análisis masivo de datos

Figura 1. Nodo IoT inalámbrico LoRa, alimentado mediante un panel solar que recoge información ambiental

En este artículo veremos cómo se pueden utilizar estas herramientas para maximizar el impacto económico de los visitantes.

Maximizando el impacto de los eventos en las ciudades

Los partidos de fútbol de La Liga, un concierto, la llegada del tren de las 20:00h… suponen una oportunidad en un breve espacio de tiempo, que los actores económicos de la ciudad no pueden desaprovechar. ¿Cómo pueden los negocios locales obtener el mayor retorno de los eventos en la ciudad?

Y es que primero Google, y después Amazon han cambiado el concepto de los consumidores sobre lo inmediato. Sin embargo, como saben estas grandes empresas, una tienda física sigue siendo el mejor evidenciador de cercanía al cliente. Como seres sociales, adquirimos el 70% de los productos en un entorno físico en el que encontramos a otros consumidores. Y, sí, también los comercios físicos en la ciudad pueden beneficiarse de la analítica de datos.

Por ello, la herramienta TACTIZITY analiza el impacto económico de los eventos deportivos, más concretamente los partidos de fútbol, para que la economía local saque el máximo provecho. ¿Cómo pueden los comercios y servicios obtener el máximo rendimiento de las visitas a la localidad por los partidos de fútbol? ¿Qué artículos o servicios son los que tiene mayor probabilidad de éxito? ¿Cuáles podrían ser algunas de las ofertas adecuadas?

Para responder a estas preguntas, la herramienta de análisis, emplea datos procedentes de fuentes de datos abiertas, de encuestas a los comerciantes y de sensores que miden lo flujos en la ciudad. https://www.tactizity.com/bilbao

 

Figura 2. Impacto económico de los partidos del Athletic

 

¿Y adaptar dinámicamente la oferta en función de los eventos en la ciudad? La información está en la base de casi todo nuevo producto o servicio. Incluso del precio que pagamos por él. De hecho, en Italia ya están probando este concepto.

En los cines Plinius, el precio de la entrada varía en función de la meteorología, el reparto de la película o la sesión… Según sus indicaciones, ha obtenido “una mejora de hasta un 15% en la venta de entradas en taquilla y de un 105% en la compra online”. No podemos olvidar que el negocio de una sala de cine como el de la aviación es la venta de asientos. Ambas pierden el dinero de las butacas que no ocupan. Por su parte, la aviación lleva mucho tiempo trabajando con este hándicap, de ahí que es muy difícil encontrar a dos personas que hayan pagado lo mismo por su viaje en el mismo avión. Variables como la antelación de compra o simplemente el día de la semana en el que se produce la compra afectan al precio.

Vamos hacia una “internet de las cosas”, en la que los objetos que nos rodean están sensorizados y conectados, comparten información, y actúan en consecuencia. El comercio parece estar en la avanzadilla y los centros comerciales abiertos de las ciudades no tienen tiempo que perder para potenciar de este modo sus fortalezas.

Buscando la serendipia

Esta palabra, proviene del inglés “serendipity” y se describe normalmente como “el proceso accidental e inesperado por el cual descubrimos algo que en realidad no estábamos buscando”. También se podría nombrar con un término más castizo como “chiripa”.

La cuestión es que se trata de un mecanismo enormemente prolífico. Su descendencia, va desde el descubrimiento de América por parte de Cristóbal Colón o el episodio de Newton con la manzana, hasta el descubrimiento del velcro, los rayos x, el microondas o los post-it entre otros. Sin embargo, en ausencia de datos y de un entorno propicio, es altamente improbable que se produzca la serendipia. Precisa información y conocimiento para medrar.

Por suerte, la era de la información en la que vivimos, nos permite darle un empujoncito extra a la serendipia mediante la analítica de datos. Esta, utiliza la siempre creciente capacidad de computación a nuestra disposición para encontrar relaciones no evidentes entre diferentes parámetros.

Estas relaciones no evidentes que ofrecen una ventaja competitiva en la economía de las ciudades son el caldo de cultivo de las próximas startup de las que todos hablaremos.

 

Figura 4. TACTIZITY analiza el impacto económico de los eventos para los negocios locales

Con esto, llegamos al final del recorrido. Espero que haya disfrutado este recorrido por la tecnología tanto como yo. Al ser las ciudades, unos los mayores polos de concentración de talento, conocimiento y capacidad de innovación, las TIC urbanas suponen una oportunidad para contribuir a nuestra calidad de vida y bienestar a partir de la conversión de ciudades en Smart Cities. ¡Nos vemos en las ciudades!

Autor: Ivan Arakistain, docente en el Máster en infraestructuras urbanas inteligentes y urbanismo sostenible: Smart Cities de EADIC.

 

 

Principios para construcción de edificios Passivhaus en climas cálidos

Para construir edificios Passivhaus en climas cálidos hemos de incorporar estrategias pasivas adecuadas a los mismos, que difieren de las estrategias habituales para climas fríos.

 

El estándar Passivhaus surgió en Alemania en los años 90. En la actualidad hay más de 4000 edificios construidos bajo sus premisas, la mayoría en climas centroeuropeos, pero cada vez encontramos más ejemplos de proyectos Passivhaus en climas cálidos.

 

El Passivhaus Institute definió, en base a su experiencia en Centroeuropa, los cinco principios Passivhaus. Estos principios proponen estrategias efectivas para la construcción de edificios de muy bajo consumo:

  • Aislamiento térmico
  • Carpinterías de altas prestaciones
  • Ventilación mecánica de doble flujo
  • Estanqueidad al aire
  • Ausencia de infiltraciones no deseadas.

 

Con el paso de los años el estándar se ha ido extendiendo en todo el mundo, abarcando zonas con diferentes climas y se ha ido adaptando a las distintas realidades, incorporando nuevos requisitos y demostrando su funcionamiento en distintos entornos.

 

Las diversas experiencias por todo el mundo han demostrado que para construir edificios según los principios Passivhaus en climas cálidos, hemos de tener en cuenta otros principios además de los tradicionales “5 principios Passivhaus” mencionados arriba.

 

A continuación, enumeramos las estrategias fundamentales a la hora de construir un edificio Passivhaus en climas cálidos:

  1. Protecciones solares, para evitar las ganancias solares por radiación.
  2. Inercia térmica, sobre todo en climas secos con fluctuaciones de temperatura a lo largo de las 24 horas del día.
  3. Ventilación nocturna, combinada con inercia térmica para “almacenar” el frescor nocturno.
  4. Fachadas ventiladas o de colores claros, para disminuir las ganancias por conducción a través de la envolvente.
  5. Conductos enterrados que atemperan el aire de ventilación antes de introducirlo en el edificio, aprovechando la inercia térmica del terreno.

 

Al igual que los 5 principios Passivhaus, estos 5 principios propuestos para climas cálidos no son reglas de obligado cumplimiento, sino estrategias recomendables a tener en cuenta para disminuir la demanda del edificio. Habrá que valorarlos en conjunto con la geometría, uso y sistema constructivo del proyecto, según el clima de la zona.

 

Podéis encontrar más información sobre edificios Passivhaus en climas cálidos en:
https://passipedia.org/basics/passive_houses_in_different_climates
https://passipedia.org/examples

 

Autora: Ana García Martínez, docente del curso Passivhaus en el Máster en Energías Renovables y Eficiencia Energética de EADIC

EADIC Blog