Perforación de pozos petroleros

La perforación de pozos petroleros es el principal factor para definir la tipología de dichos pozos petroleros, y, en base a ella se determinan tres tipos de pozos petrolíferos:

  • Exploratorios
  • Evaluación
  • Desarrollo

Pozos exploratorios

La perforación de pozos petroleros exploratorios son los primeros en ser perforados en un proyecto. El principal objetivo de estos pozos es establecer la presencia de hidrocarburos. Los datos geológicos tomados de los recortes, los núcleos y los registros, son los objetivos de estos pozos. En resumen, la función de los pozos exploratorios es obtener la mayor cantidad de información al menor costo.

Pozos de Evaluación

Un pozo petrolero de evaluación es perforado como una etapa intermedia entre la exploración y la producción, para determinar el tamaño del campo, las propiedades del yacimiento y cómo van a producir la mayoría de los pozos. Ya que la geología del área es mejor conocida, la perforación y terminación de los pozos podrá ser mejor diseñada para reducir al mínimo los daños al yacimiento. Estos pozos mejoran la calidad de la información para permitir a los Geólogos e Ingenieros en Yacimientos la mejor predicción de la producción a lo largo de la vida del campo.

Pozos petroleros de desarrollo

El propósito principal de estos pozos es poner en producción al campo, siendo su prioridad la producción antes que la toma de datos. Existen diferentes tipos de pozos de desarrollo los cuales son:

a) Pozos de producción: son los más numerosos, el objetivo es optimizar la productividad del pozo.

b) Pozos de inyección: estos pozos son menos numerosos, pero son indispensables para producir el yacimiento. En particular algunos pozos inyectores son usados para mantener la presión del yacimiento y otros para eliminar fluidos no deseados.

c) Pozos de observación: Sirven para completar y monitorear varios parámetros del yacimiento. Algunas veces pozos que son perforados y no se pueden usar para producción o inyección son utilizados como observadores.

Clasificación de los Pozos petroleros

La perforación de pozos petroleros depende de varias razones, entre ellas se encuentra: el área geográfica, las características y estructura del yacimiento, la columna geológica y la optimización de la producción del yacimiento al mínimo costo. Debido a esto, los pozos se pueden clasificar en:

• Verticales

• Horizontales

• Desviados (de pequeño y gran ángulo)

            • Multilaterales

Pozos Verticales

Estos pozos son los más comunes dentro de la industria petrolera siendo esto por las siguientes razones:

• Su perforación es la más sencilla

• Son los menos costosos

• Su operación es simple

• Diseño óptimo para fracturamiento hidráulico

• Ideales para yacimientos de espesor homogéneo

 Perforación de pozos petroleros

 

Pozos Horizontales

La perforación de estos pozos es debida principalmente a las siguientes razones:

• Yacimientos de poco espesor, o columnas de aceite de poco espesor 

• Para minimizar bajas en la producción no es demasiada baja, y no hay barreras significativas a la permeabilidad vertical.

• Para minimizar la perforación de pozos para el desarrollo de un campo

• En yacimientos fracturados donde un pozo horizontal da una mejor oportunidad de interceptar las fracturas.

• Para yacimientos propensos a la conificación de agua y gas

• Para yacimientos propensos a la producción de arena

• En combinación con la perforación de alcance extendido para drenar diferentes        bloques o yacimientos, en un solo pozo.

• Cuando las cualidades del yacimiento varían en sentido lateral y un pozo horizontal da una mejor oportunidad de encontrar los mejores puntos de extracción.

• En combinación con la perforación de alcance extendido, para desarrollar los yacimientos en zonas ambientalmente sensibles, o desde una plataforma marina, donde el número y la ubicación de los pozos de superficie está muy restringido.

Perforación de pozos petroleros

Pozos Desviados

La perforación de estos pozos puede ser usada para muchos de los propósitos de los pozos horizontales y adicionalmente para:

• Yacimientos de espesor grande donde la relación / es baja, y/o existen barreras significativas a la permeabilidad vertical.

• Yacimientos lenticulares.

• Yacimientos en capas           

  Perforación de pozos petroleros                                                                           

Pozos petroleros Multilaterales

Los pozos multilaterales incrementan la productividad del pozo principalmente incrementando la longitud de sección del yacimiento expuesta hacia el pozo. Otros beneficios incluyen la posibilidad de drenaje de más de un yacimiento, o más de un bloque de un yacimiento en un solo pozo. Un pozo multilateral, es aquel con uno o más laterales, es decir, uno o más pozos subsidiarios de un pozo principal. Los laterales son usualmente pozos horizontales o desviados.

 Perforación de pozos petroleros

Las principales aplicaciones para estos pozos son:

• Mejora el drenaje en un yacimiento

• Acceso a intervalos y bloques discontinuos en un yacimiento

• El drenaje de más de un yacimiento en un pozo

• Mejora la eficiencia de los proyectos de Recuperación Secundaria y Mejorada

• En combinación con la perforación de alcance extendido, para desarrollar los yacimientos en zonas ambientalmente sensibles, o desde una plataforma marina, donde el número y la ubicación de los pozos de superficie está muy restringido.

Autor: José Luis Vázquez Dols, profesor del Máster en Petróleo y Gas: Prospección, Transformación y Gestión

Máster en Petróleo y Gas: Prospección, Transformación y Gestión

Señalización en aeropuertos

Las marcas que se encuentran sobre la superficie de plataformas y pistas, son indicaciones que se encuentran englobadas dentro de la señalización en aeropuertos.

Esta señalización permite la orientación a los pilotos, tanto en tierra como en aire, y al personal de tierra, por ello es una de las partes fundamentales de un aeropuerto que garantiza las operaciones aéreas.

La señalización horizontal es también imprescindible para todos los vehículos que se ocupan del transporte de personas y mercancías en el área de maniobras.

También indica donde está permitido el tránsito o donde está permitido o prohibido detenerse de forma temporal, el número de pista, etc.

Con objeto de poder distinguir las distintas partes de un aeropuerto, las plataformas y las calles de rodaje, estas se marcan con material de señalización amarillo en el ámbito de la señalización horizontal de aeropuertos.

Por otro lado, la señalización para las pistas de despegue y aterrizaje es siempre blanca, además de tener una gran importancia la señalización del inicio y fin de las pistas de manera que estos puedan ser reconocidos por los pilotos desde el aire.

La señalización de fin de pista se conoce en el tráfico aéreo también como umbral, para completar la señalización horizontal de las pistas se incluye la designación de la pista correspondiente.

Para la ejecución del pintado de estas marcas viales se emplean máquinas diseñadas específicamente para este uso, además de que los materiales utilizados disponen de unos requerimientos elevados en cuanto a resistencia y visibilidad, especialmente los utilizados en las pistas.

Autor: Alberto David Jañez, profesor del Máster en Aeropuertos: Diseño, Construcción y Mantenimiento

Máster en Aeropuertos: Diseño, Construcción y Mantenimiento

¿Cómo el BIM nos puede hacer la vida un poquito más fácil?

En este artículo analizamos como las herramientas colaborativas del modelo de BIM nos facilitarán la labor en todas las fases del proyecto

“El ser humano es el único animal que tropieza dos veces con la misma piedra”. Tenemos la virtud de cometer errores una y otra vez, es ahí donde interviene la tecnología, que nace para ayudarnos en nuestro día a día, facilitandonos las cosas y consiguiendo un nivel de perfección que sin ella no podríamos conseguir.

Las tecnologías van avanzando, lo que antes se delineaba con portaminas hoy se hace con programas informáticos. Estos programas van evolucionando y poco a poco se van haciendo más inteligentes, hasta tal punto de detectar errores que nosotros no percibimos.

¿Cuántas veces hemos proyectado un edificio y en la obra nos hemos encontrado con problemas que previamente no habíamos detectado? ¿Cuántas veces nos ha pasado que tenemos una viga de descuelgue y en la obra nos encontramos que según el proyecto un conducto de climatización la corta? ¿Es posible prever estos errores?

El hecho de trabajar con diferentes herramientas que no están conectadas entre sí nos perjudica, provoca que haya errores en nuestro proyecto y por consiguiente en la obra.

La tecnología BIM nos puede facilitar la vida

Estos errores son fácilmente detectables si trabajamos con las herramientas adecuadas, recordamos que trabajar con programas BIM (Building Information Modeling), implica un modelado de nuestro proyecto, un levantamiento tridimensional de todos sus elementos (estructurales, arquitectónicos, etc), por lo que podremos detectar cualquier problema con mayor facilidad.

El uso de software BIM nos permite que diferentes especialistas de diferentes campos colaboren en un mismo archivo simultáneamente. Los cambios realizados por los ingenieros son captados de manera automática por los demás colaboradores del proyecto (arquitectos, fabricantes, etc). Este flujo de trabajo nos permite tener una actualización en tiempo real de todo el proyecto, tanto si un arquitecto desplaza un tabique como si un ingeniero aumenta la superficie de un pilar.

Trabajar con este tipo de metodología implica un salto de calidad, un avance hacia la perfección y por lo tanto, una manera de hacer nuestra vida un poquito más fácil.

Autor: Antonio Méndez, profesor del Máster en BIM Management (Sistemas Revit, Allplan, AECOsim y Archicad)

Máster en BIM Management (Sistemas Revit, Allplan, AECOsim y Archicad)

Efectos y causas de la Contaminación atmosférica provocada por incendios forestales

España es el país europeo que más sufre los efectos perniciosos del fuego. La falta de prevención es una de las claves que ha generado un peligroso aumento de incendios forestales, provocados por el ser humano en la mayoría de los casos.

Los incendios forestales son considerados procesos de combustión natural. El fuego es un elemento natural que necesita nuestro ecosistema para la regeneración de montes y bosques. Estos incendios forestales consumen vegetación de diferente tipo, estado y tamaño en un área geográfica determinada. Sin embargo, únicamente el 4% de los incendios se producen por causas naturales, ya que detrás del 96 % restante está la mano del hombre.

Durante la combustión los incendios forestales emiten monóxido de carbono y óxido de nitrógeno, aumentando así la contaminación atmosférica. Con la acción de la luz solar estos gases participan en reacciones químicas que producen ozono a nivel del suelo, un peligroso contaminante.

El tamaño e intensidad de un incendio forestal depende directamente de variables como condiciones climatológicas, tipos de vegetación, grado de humedad, carga de combustible por unidad de área, etc.

Contaminación atmosférica provocada por los incendios forestales

El impacto en la salud de las personas expuestas a las emisiones de los incendios forestales puede llegar a ser agudo, si las condiciones meteorológicas son favorables. Asimismo, los incendios afectan de manera directa y clara a la visibilidad, debido a que las emisiones de partículas pueden transportarse a grandes distancias.

En el fenómeno de contaminación atmosférica provocada por un incendio forestal el componente crítico es el humo, provocado por las denominadas “partículas finas“. Este es una amenaza directa para la salud humana, incluso durante exposiciones relativamente cortas.

Los niveles de contaminación producidos por los incendios forestales son extremadamente altos, tanto como para aumentar potencialmente la mortalidad en poblaciones susceptibles, como ancianos, niños y aquellas personas con enfermedades del corazón, así como aumentar las visitas a urgencias de enfermos de asma y personas con problemas respiratorios.

España, a pesar de ser el país de la Unión Europea más afectado por los incendios forestales, no cuenta a día de hoy con una política forestal adecuada. En lo que respecta a EEUU, la Agencia de Protección Ambiental (EPA) controla la concentración de diferentes contaminantes en el aire que plantean riesgos para la salud o el medio ambiente. De este modo, la EPA ha establecido límites de seguridad para estos contaminantes, siendo las concentraciones que los excedan las no saludables para la población.

Entre estos contaminantes están las partículas de reducido tamaño, sólidas y líquidas, que se encuentran suspendidas en el aire. Estas partículas presentan un riesgo para la salud, ya que pueden ser inhaladas, pasando por la garganta y entrando en los pulmones.

Las partículas más peligrosas son aquellas clasificadas como “finas”. Estas tienen un diámetro más reducido que 2,5 micras, o aproximadamente 30 veces más pequeño que el de un cabello humano. Estas partículas microscópicas, conocidas como PM2,5, son tan pequeñas que pueden penetrar profundamente en los pulmones, causando a corto plazo problemas de salud, y trastornos respiratorios graves a largo plazo. Concentraciones más altas de lo normal de PM2,5 pueden causar tos, enrojecimiento de rojos, rinorrea, dolor de garganta, dificultad para respirar, etc.

Contaminación atmosférica provocada por los incendios forestales

Hace ya tiempo que se sabe que la exposición a largo plazo a las PM2,5 está asociado a un aumento de la mortalidad, pero una investigación reciente ha demostrado que incluso una exposición a corto plazo puede desencadenar ataques al corazón en la población general.

La EPA ha establecido un Índice de Calidad del Aire, que refleja los estándares nacionales de calidad del aire para varios contaminantes, incluyendo las PM2,5. La figura que se muestra a continuación ilustra el Índice de Calidad del Aire de la EPA para las PM2,5, incluyendo los distintos límites de concentración para cada nivel de peligrosidad.

Contaminación atmosférica provocada por los incendios forestales

Por otra parte, la NASA ha rastreado los efectos provocados por los incendios forestales con sus satélites y se ha visto, por ejemplo, que el humo de los incendios que arrasaron 4,5 millones de hectáreas en Alaska, en 2004, se extendió por todo el hemisferio norte. Asimismo, el nivel de ozono en la troposfera creció un 25% en EE UU y un 10% en Europa. Los científicos estimaron que de junio a agosto el fuego produjo 30 millones de toneladas de CO, una cifra que iguala al generado por la actividad humana en EE UU en ese periodo.

De todo esto, se concluye que los incendios forestales son fuentes potenciales de contaminantes atmosféricos, que deben ser considerados al intentar correlacionar las emisiones de contaminantes con la calidad del aire.

Como ya se ha dicho, los incendios forestales son una causa natural de contaminación atmosférica, y por lo tanto no se puede ni se debe acabar con ellos. Esta causa natural se refiere únicamente al 4% de los incendios forestales que se padecen hoy en día. En dónde sí se puede actuar es en evitar o por lo menos reducir el 96% de los provocados de forma intencionada, y que están produciendo un aumento muy considerable de la contaminación atmosférica, la disminución de la calidad de vida y el empeoramiento de la salud de las personas.

Para conseguir esto, entre algunas de las propuestas que se están manejando están el acabar con el uso cultural del fuego, sobretodo en el medio rural, y desarrollar una gestión forestal eficiente con modelos de selvicultura que tengan en cuenta la variable del cambio climático. Asimismo, no se debe olvidar el papel principal que tienen adoptar las administraciones públicas, pues es necesaria una legislación, gestión, investigación y mayor dotación de recursos. Por último e imprescindible, está el papel de la colaboración ciudadana para identificar a incendiarios.

Autor: Juan José Graña. profesor del Máster Internacional en Ingeniería y Gestión Ambiental

Máster Internacional en Ingeniería y Gestión Ambiental

Calener VYP: software para la calificación y certificación energética

A lo largo de la historia el progreso, determinado en estos últimos tiempos por el predominio de la tecnología relacionada con la información y sus instrumentos, ha estado vinculado irremediablemente al aumento del consumo de energía.

Este dato se convierte en capital en los protocolos de Montreal y Kioto, y es la guía para la redacción de la Directiva 2002/91/CE, que define la eficiencia energética como la cantidad de energía consumida realmente o que se estime necesaria para satisfacer las distintas necesidades asociadas a un uso estándar del edificio. Este concepto busca reducir la relación entre progreso y consumo.

Esta directiva, además, valora en más del 40% del total de la Unión Europea el consumo correspondiente al sector de la vivienda y los servicios. El Código Técnico de la Edificación, que es la transposición de esta directiva, busca la reducción de estos consumos domésticos principalmente.

Esta directiva y la posterior directiva 2010/31/UE generan la aparición de varios programas de calificación y certificación, como pueden ser CALENER VYP, CALENER GT, CE3 y CE3X.

El programa CALENER VYP, integrado en la actualidad en la HERRAMIENTA UNIFICADA LIDER-CALENER, busca comparar en el caso de vivienda y pequeño terciario el consumo de nuestro edificio con un edificio de referencia, calificándolo con una secuencia de letras que, en orden de mayor a menor eficiencia va de la A a la G.

Es función de los técnicos certificadores hacer un uso correcto de esta potente herramienta por dos motivos diversos e importantes ambos. En primer lugar el técnico certificador es responsable de la veracidad de los datos incluidos en la calificación y certificación, con una independencia fundamental respecto a la voluntad del cliente. En segundo lugar, no debemos olvidar el objetivo de los diferentes programas: LIDER, CALENER VYP, CALENER GT, HERRAMIENTA UNIFICADA LIDER-CALENER, CE3 Y CE3X, esto es, detectar las pérdidas de energía, cuantificarlas y proponer medidas de mejora que dirijan los edificios hacia un menor consumo, lo que se traduce en un menor coste para el usuario final y un uso de las instalaciones más racional.

Escribimos a continuación el vínculo a los programas antiguos y actuales de Calificación y Certificación Energética para todo el que quiera tener una primera idea de las herramientas disponibles.

Autor: Jorge López García, profesor del Máster en Energías Renovables y Eficiencia Energética

Máster en Energías Renovables y Eficiencia Energética

Las profesiones más valoradas del futuro

El trabajo es una de las cuestiones por las que más nos preocupamos en el día a día. En una sociedad sometida a constante cambio, la incertidumbre se cierne muchas veces sobre nuestro futuro laboral. En este artículo os vamos a mostrar las cinco profesiones más valoradas del futuro, y, las que más beneficio económico reportarán a quienes las ejerzan:

Científico de datos (Data Scientist)

Este trabajo consiste en analizar e interpretar multitud de datos, en el marco de la nueva disciplina denominada como Big Data. En la actualidad está en pleno auge debido a que cada día se generan 2.5 trillones de bytes de nueva información.

La formación necesaria para los trabajadores que quieran ejercer de Data Scientist versan sobre matemáticas, estadística y nociones de programación. Es el momento de formarse y en EADIC tenemos el Máster en Big Data y Business Intelligence que te ofrece los conocimientos necesarios para desarrollarte en este ámbito.

Creador de experiencias virtuales

La realidad virtual lleva años entre nosotros, fundamentalmente relacionado con la industria del ocio ligado a las nuevas tecnologías. Hasta el momento no hay muchos profesionales dedicados a generar estas experiencias virtuales que sumerjan a los espectadores en nuevos mundos que descubrir.

Cyber Security Manager

Las funciones son similares a las de un policía, pero especializado en Internet, encargado de proteger nuestros datos e intimidad en la gran Red. En la actualidad no existe una carrera específica que forme a este tipo de profesionales.

Si quieres velar por la integridad de la información te podemos ofrecer el Curso de Ciberseguridad y Prueba Electrónica Forense para formarte en este campo y optar a un puesto en este mundillo.

Experto en inteligencia artificial

Este empleo necesita personas capacitadas para crear máquinas con cualidades similares a las de los seres humanos. Hay voces en este sentido que indican que la implantación de la inteligencia artificial será una revolución de la magnitud que supuso la implantación masiva de Internet. Un campo para ingenieros curiosos y con grandes dosis de imaginación que muy pronto será una de las profesiones más valoradas.

Ingeniero aeroespacial

Aparece la última de este Top 5 pero no quiere decir que sea la última de la lista. Según indican los expertos en la materia, durante la próxima década comenzarán a realizarse viajes espaciales de manera generalizada, una oportunidad laboral de gran magnitud para los ingenieros aeroespaciales.

Estas son algunas de las profesiones más valoradas del futuro .Ahora ya sabéis, para llegar a alcanzar esos puestos es de vital importancia que comencéis a formaros desde ya mismo para no perder este tren.

El Gran Cambio de Plantilla en la industria de hidrocarburos

La caída de los precios del crudo y gas desde inicios del año pasado ha provocado cerca de 200,000 en despidos en la industria de los hidrocarburos, especialmente en el sector del Upstream.

Estos trabajadores se han ido recolocando en otros sectores industriales, lo que está generando una pérdida significativa de talento y experiencia en el sector, que puede traer consecuencias importantes cuando los precios se estabilicen.

La industria de hidrocarburos es extremadamente dependiente en el capital humano, y requiere de personal especializado y capacitado en todas las etapas del proceso, desde el encuellador en el taladro (roughnecks) a los ingenieros de proceso de las refinerías, pasando por químicos, ingenieros civiles, electricistas, instrumentistas, ingenieros petroleros, geólogos, etc.

Si bien es cierto que la industria de hidrocarburos tiene un carácter cíclico, marcado principalmente por los precios de las comodities de crudo y gas; la situación a la que se ve abocada la industria en el medio plazo es muy diferente, al menos desde el punto de vista del capital humano.

Es lo que en el sector de hidrocarburos se ha venido a llamar el Gran Cambio de Plantilla o el “Great Crew Change. Este fenómeno se refiere al salto de edad existente en la plantilla de la industria de hidrocarburos entre el personal de más de 55 años y los menores de 35 años.

Esta brecha generacional es la consecuencia de dos efectos independientes: por un lado la jubilación progresiva de los denominados Baby Boomers (personas nacidas entre los años 1946 y 1964) y el reducido número de profesionales que se incorporó a la industria entre el final de los ‘80 y la década de los ’90.

Ejemplo Generación X en la industria de hidrocarburos en Estados Unidos

Ejemplo Generación X en la industria de hidrocarburos en Estados Unidos

 

Como consecuencia de este salto generacional se está produciendo un vacío en las posiciones de liderazgo, donde faltan profesionales de 10-20 años de experiencia capaces de asumir roles de gerencia para cubrir las posiciones de profesionales que están llegando a la edad de jubilación.

Tanto es así que desde hace algunos años, muchas compañías se han visto obligadas a pedir a sus empleados con más experiencia extender sus carreras como empleados o incluso como consultores en su puesto actual.

El reto generacional de la industria de hidrocarburos en números

El reto generacional de la industria de hidrocarburos en números

Las compañías son conscientes de este problema y han venido establecido programas de retención de talento y reclutamiento para las nuevas generaciones y se han establecido programas de mentoring, planes de formación y desarrollo in company, mejoras en los beneficios sociales,…..

A raíz de la caída de precios, donde se hace necesario más que nunca reducir costes operativos y maximizar la eficiencia, las compañías han sido muy cautelosas a la hora de planificar los ajustes de plantilla necesarios, intentando mantener un delicado balance entre los despidos y los retiros anticipados.

Salto generacional en los profesionales de la industria de hidrocarburos

Salto generacional en los profesionales de la industria de hidrocarburos

Desde la industria nos queda por tanto el trabajo de atraer y retener este talento de las nuevas generaciones de Milenials y saber adaptarnos a los nuevos retos que muestren los representa:

  • Creando entornos colaborativos, que permitan interactuar fácilmente y exploten al máximos el uso de las tecnologías de la información.
  • Disponiendo de estructuras organizativas menos jerarquizadas, que permitan tener gerentes y responsables mucho más accesibles.
  • Desarrollando esquemas de desempeño orientado a los retos y con elevado grado de independencia del individuo, con un enfoque de desarrollo profesional basado en el mentoring o tutoria.
  • Primando el balance entre la vida laboral y familiar como complemento de la retribución salarial.
  • Creando programas de desarrollo de carrera flexibles, abiertos y transparentes, que favorezcan el intercambio de información y el conocimiento interdisciplinar.

Los retos los tenemos delante y en como los afrontemos marcara el desarrollo de esta industria.

Autor: José Campuzano, profesor del Máster en Petróleo y Gas: Prospección, Transformación y Gestión

Máster en Petróleo y Gas: Prospección, Transformación y Gestión

 

El mercado energético actual

Las sociedades actuales de los países desarrollados se caracterizan por un estilo consumista que, en el fondo, es la tarjeta de presentación que enmascara una ingente demanda de recursos y una elevada contaminación, aspectos ambos letales para el medio ambiente. Ahí nace uno de los temas más presentes en estos días en los medios de comunicación: el cambio climático.

En las sociedades más avanzadas, en aquellas que son altamente industrializadas y con un mercado energético desarrollado, se asiste a un desfase colosal entre lo que una persona realmente necesita y lo que puede llegar a consumir. Téngase en cuenta, en este sentido, que el consumo energético por persona es un factor que actualmente está directamente relacionado con su estilo de vida: hoy día, conceptos como calidad de vida y mercado energético van intrínsecamente unidos.

Actualmente, la oferta energética primaria está cimentada sobre el uso y consumo del petróleo y del gas natural, en medio de un incremento demográfico exponencial. Ello justifica el temor al no muy lejano agotamiento de las reservas energéticas, pues se está asistiendo a una drástica aceleración de las necesidades: efectivamente, cuanta más población tenga el planeta, tanto mayores serán los recursos necesarios. Es por ello que los expertos señalan que el sistema actual es insostenible o, más acertadamente, que el mantenimiento del sistema energético actual durante un plazo de tiempo de una o dos generaciones no se va a ser posible soportarlo.

Así, se pueden encontrar un sinfín de referencias que señalan que el petróleo y el carbón, ejemplos evidentes de energías no renovables (llamadas así porque su disponibilidad se encuentra limitada por las cantidades disponibles y/o porque su ciclo de renovación es extremadamente lento), tienen reservas limitadas, a lo que sin duda está contribuyendo el hecho de que cada vez sea mayor la demanda: se calcula que el petróleo no verá morir, y por bastante, el siglo XXI; al igual que se calcula que, en poco más de cien años, se habrán agotado las reservas de gas natural; análoga suerte, aunque con un plazo más generoso, se estima que correrán a este paso otras fuentes no renovables como el carbón o el uranio.

El mercado energético actual

Por todo lo anterior, las energías renovables han emergido y se han ido desarrollando para hacer frente a la demanda energética creciente, intentando minimizar el perjuicio económico. De esta forma, y aunque con cierta lentitud, poco a poco van jugando un papel de sustitución parcial de las energías fósiles, lo que permite atenuar los problemas que ocasionaría el agotamiento de los recursos y mitigar parte de los inconvenientes medioambientales que actúan en contra de ciertos recursos fósiles.

En el caso particular de España, el consumo de energía primaria por habitante se ha disparado notablemente durante las dos últimas décadas, debido al desarrollo del país y a pesar de haberse visto inmerso en una de las crisis económicas más graves que se han conocido. No ajena a lo recogido en el párrafo anterior, España ha ido acompañando este crecimiento de un mayor protagonismo de las energías renovables: en 2010 el consumo final bruto de electricidad renovable era del 29,2 %, frente al 18,5 % de 2004.

Por todo lo anterior, y en medio de la sensibilidad medioambiental que se ha desarrollado en los últimos años, se han acometido acciones políticas orientadas a combatir la insostenibilidad del mercado energético, tal y como se le conoce en la actualidad. En el caso de España, esto puede ser analizado desde dos frentes diferentes:

  1. Frente europeo. Gracias a la acción de la Unión Europea, actualmente se prevé (y no es una previsión optimista sin más, sino que hay datos científicos que así lo avalan) que para el año 2050 más de la mitad de la energía que se emplee en los países miembros de la UE para la generación de electricidad en la industria, el transporte y los hogares, se obtendrá a partir de fuentes que no utilicen combustibles fósiles no renovables. En el afán de cumplir ese objetivo, se han lanzado, por un lado, acciones de orientadas a favorecer el uso de energías renovables (energía eólica, energía hidráulica, energía solar, biomasa o hidrógeno), y, por otro, se ha hecho un esfuerzo de financiación de programas de investigación encaminados al desarrollo de nuevas tecnologías que utilicen la energía de una forma mucho más eficaz.
  2. Frente nacional. En España, los retos principales de la política energética nacional se pueden englobar en los tres objetivos siguientes:
    1. La reducción de la dependencia de ciertas fuentes,
    2. La oferta al consumidor de precios energéticos competitivos,
    3. El compromiso con el medioambiente y la cobertura para la demanda.

Sin entrar a valorar los resultados obtenidos, pues eso daría para otro post muy extenso, el protagonismo de las renovables ha ido creciendo en ambos frentes, fruto en parte de los propósitos de ambos: ciclos de renovación más cortos y rápidos frente a las fuentes tradicionales (que hacen, de hecho, innecesario pensar en su agotamiento), impacto prácticamente nulo y reversible sobre el medio ambiente y reducción de los costes de transporte (gracias a la reducción de la dependencia de suministros externos, debido a su carácter autóctono), son los factores que los defensores de las energías renovables argumentan para su uso creciente, en medio de un mercado energético claramente insostenible.

Autor: Rubén Rodríguez Elizalde, profesor del Máster en Energías Renovables y Eficiencia Energética

Máster en Energías Renovables y Eficiencia Energética

El éxito del helicóptero solar

Un grupo de estudiantes de la Universidad de Maryland han logrado un hito para la aviación solar, al hacer volar su modelo de helicóptero solar tripulado tan sólo con el uso de energía solar.

El gran desafío de este helicóptero solar era el de conseguir levantar únicamente con la ayuda de energía solar este aparato que con los juegos de palas en movimiento ocupa una extensión de 30 metros cuadrados.

El modelo Solar Gamera realizó dos vuelos de 9 segundos ascendiendo 30 centímetros de altura desde el suelo.

Este grupo de estudiantes sube el listón año a año, ya que, en 2013 uno de sus modelos logró completar con éxito el vuelo de mayor duración con un helicóptero de propulsión humana.

La energía solar en particular y todos los tipos de energías renovables existentes en la actualidad son uno de los grandes recursos de nuestra civilización para reducir la cada vez más elevada contaminación del planeta.

El modelo de consumo energético actual ha quedado casi obsoleto y hay que buscar nuevas formas de avanzar sin dañar nuestro entorno, para ello se necesitan ingenieros que encuentren alternativas viables como este helicóptero solar, para ello es de vital importancia la formación, como la que EADIC te ofrece con su Máster en Energías Renovables y Eficiencia Energética.

Máster en Energías Renovables y Eficiencia Energética

El 92% de las empresas europeas ha sufrido algún tipo de ciberataque

Según un estudio desarrollado por Lloyds Bank el 92% de las empresas europeas han sufrido al menos un ciberataque durante los últimos cinco años, pero no se ha tomado conciencia total del problema que puede suponer, ya que, tan sólo un 42% de dichas empresas se preocupa porque este tipo de incidentes se puedan repetir en un futuro.

En la actualidad en la mayoría de los casos es el propio director ejecutivo el que asume la responsabilidad en temas de ciberseguridad.

En el caso concreto de España, el 67% de las empresas reconocen no tener excesivos conocimientos en cuanto a la regulación europea en este sentido, y, tan sólo el 20% de ellas se preocupan por la posibilidad de sufrir una violación de sus datos en el futuro.

Estos datos contrastan con el estudio de la Universidad de Comillas que sitúan a España como el tercer país con más incidentes de este tipo, con una media de 4.000 ciberataques al día.

Tan sólo el 6% de las empresas creen que estas incidencias podrían conllevar la pérdida de sus clientes, siendo el hackeo por motivaciones políticas, para obtener beneficios  y hackeo por parte de empresas de la competencia.

Fuente: www.computerworld.es

Como podéis comprobar las empresas necesitan (y cada vez con más urgencia) personas formadas en Big Data y ciberseguridad, se trata de un nicho con gran demanda laboral que requiere de formación técnica especializada como la que te ofrecemos en el Máster en Big Data y Business Intelligence.

Máster en Big Data y Business Intelligence

Nuestro amigo R: Análisis de supervivencia

Dentro de los problemas clásicos de minería de datos, podemos considerar el de predecir el abandono de clientes en una empresa que, normalmente se suele plantear para que se resuelva por diversos métodos de minería como árboles de decisión, regresiones logísticas, redes neuronales, etc.

Todos estos planteamientos tienen en común que no se estudian principalmente desde el punto de vista del tiempo trascurrido, y de que por lo tanto, elaboran una serie de modelos para tomar una serie de medidas cuando unas determinadas circunstancias se den en un cliente pero que, por lo general no están en función de la antigüedad del cliente en la empresa.

El análisis de supervivencia que vamos a ver aborda ese problema desde el punto de vista temporal, de forma que se pueda analizar también esa variable de tiempo respecto a otras variables igual que la minería clásica, sólo que esto presenta la diferencia, desde el punto de vista de la gestión de una organización, de que trata el concepto de ciclo de vida del cliente que también es necesario manejar y que, los modelos de minería generalmente, no tratan.

Muchas aplicaciones comerciales de CRM analítico, de hecho, no tratan con este tipo de algoritmos de supervivencia, porque parten del planteamiento de que la baja de un cliente siempre es evitable. Nosotros, evidentemente, no estamos de acuerdo con eso. Es más, creemos que introducir el concepto de ciclo de vida del cliente, supone aceptar que el cliente se terminará dando de baja de la empresa, y que todos los enfoques que se puedan realizar sobre conservar su lealtad, siempre terminan teniendo debilidades y áreas de mejora.

Sin polemizar, creemos que los dos enfoques (el del CRM analítico basado en modelos, y el del análisis de supervivencia) son complementarios y que deberían abordarse conjuntamente, para llegar a un mejor conocimiento desde varias perspectivas, aunque aquí vamos a hacerlo sólo respecto del segundo método.

Para empezar a estudiar el análisis de supervivencia, planteamos un problema de una empresa que en un determinado momento se percata que ha perdido el 15% de sus clientes y que desea estudiar, si realmente es debido a un ciclo natural del cliente que se ha cumplido, respecto de lo cual no puede tomar medidas, o a otra serie de circunstancias con las que sí que puede ponerse a trabajar.

La toma de datos en este tipo de problemas es muy importante, y se realiza en un determinado momento teniendo en cuenta el momento de la baja de los 45 clientes sobre los 300 posibles. Es decir, aquellos clientes que no se han dado de baja los referimos al momento actual, con la antigüedad que tengan ahora; mientras que a los que se han dado de baja, los asignamos la antigüedad que tenían en el momento de la baja.

Para operar, empezamos por cargar las librerías que necesitamos así como los datos que hemos elaborado. Las dos primeras librerías son para realizar operaciones, mientras que las otras son para dibujar los gráficos de los resultados.

library(survival)

library(broom)

library(survminer)

library(ggplot2)

library(ggfortify)

setwd(“D:/Users/Pedro/Documents/EA”)

fichero <- read.csv(“survival.csv”,sep=”;”)

La librería “survival” es la principal para realizar este tipo de análisis y la que contiene la mayor parte de las funciones que vamos a utilizar.

En primer lugar, presentamos los datos y como puede verse, tenemos la semana que nos sirve de referencia, un código para indicar el abandono de la empresa (1 se ha producido, 0 no se ha producido), el sexo, el grupo de edad, el grupo de facturación el último año, y la zona de ventas a la que pertenece.

> summary(fichero)

     Semana         Abandono        Sexo          Edad             LY       

 Min.   : 56.0   Min.   :0.00   Hombre:207   Min.   :20.00   Min.   :130000 

 1st Qu.:169.8   1st Qu.:0.00   Mujer : 93   1st Qu.:40.00   1st Qu.:180000 

 Median :202.0   Median :0.00                Median :50.00   Median :200000 

 Mean   :199.1   Mean   :0.15                Mean   :49.63   Mean   :201500 

 3rd Qu.:231.0   3rd Qu.:0.00                3rd Qu.:60.00   3rd Qu.:220000 

 Max.   :341.0   Max.   :1.00                Max.   :80.00   Max.   :280000 

     Zona   

 Centro:126 

 Este  : 21 

 Norte : 40 

 Sur   :113

Puede verse que el primer dato lo tenemos en la semana 56 y el último en la semana 341, que tenemos un 15% de abandonos, que tenemos prácticamente el doble de hombres que de mujeres, comprendidos por grupos de edad entre los veintitantos y los ochentaytantos; también vemos la facturación y la zona de ventas, con una gran concentración en las zonas centro y sur.

Comenzamos por la primera instrucción: “survfit” y que es la que nos crea el modelo para analizar.

> todo <- survfit(Surv(Semana, Abandono, type=”right”) ~ 1, data = fichero)

> glance(todo)

  records n.max n.start events    rmean rmean.std.error median conf.low conf.high

1     300   300     300     45 275.0529        5.244137    272      262       288

Lo común que tienen que tener todos los modelos de supervivencia es una información de tiempo y una información de evento. Es decir, esta información tiene que especificarse siempre. En nuestro caso son las variables “Semana”, “Abandono” con las codificaciones de (0,1) que ya hemos explicado.

También todos los modelos lo que presentan es un concepto que se conoce como “censura” y que significa que tenemos una información parcial referida a un periodo de tiempo. Cuando esa información parcial es referida al futuro, es censura por la derecha, y si es hacia el pasado, es censura por la izquierda. Lo normal en abandono de clientes es tener información completa de pasado, pero parcial del futuro, por lo que hay que indicar que la información está censurada por la derecha con la orden type=”right”, aunque la mayor parte de las veces se toma esa misma opción por defecto.

R permite que podamos ejecutar el análisis respecto de todos los datos, es decir, sin formar grupos que analizar, cosa que hacemos con la instrucción ~ 1 (El símbolo especial se genera pulsando las teclas ALT 126).

Si guardamos el resultado de la ejecución en un objeto R, podemos ver las estadísticas fundamentales del análisis de supervivencia con la orden “glance”. En este caso tenemos confirmado que son 300 clientes, con 45 eventos o abandonos, y que la media de permanencia en la empresa es de 275 semanas, mientras que la mediana es de 272, por lo que empezamos a tener una información clara sobre la esperanza de vida en la empresa con sus respectivas intervalos de confianza.

Podemos tener un conocimiento más detallado viendo los cuantiles de abandono de la empresa, para poder determinar si hay clientes con abandono prematuro sobre los que deberíamos realizar un estudio más concreto, y en donde podemos observar que sólo el 25% de los clientes se ha dado de baja antes de la semana 256.

> quantile(todo)

$quantile

 25  50  75

256 272 290

Ahora podemos visualizar los datos en un gráfico de supervivencia, en donde podemos visualizar la probabilidad de supervivencia a lo largo del tiempo en donde puede verse que, prácticamente las 150 primeras semanas trascurren sin bajas.

ggsurvplot(todo)

Análisis de supervivencia

Gráfico de supervivencia de todos los datos

Es importante entender este gráfico porque representa la base de todo el análisis de supervivencia y porque está totalmente condicionado tanto por los clientes que han abandonado la empresa, como por los clientes que han permanecido.

Para explicarlo mejor, creamos estas variables: el caso de Ab0, ningún cliente se da de baja, en el caso Ab1, todos los clientes se da de baja, y luego creamos dos variables en las mismas circunstancias, Ab01, todos menos el último cliente se dan de baja y en otro caso, Ab10, sólo un cliente, pero no el último, se da de baja.

> fichero$Ab0 <- 0

> fichero$Ab1 <- 1

> fichero$Ab01 <- 0

> fichero$Ab01[300] <- 1

> fichero$Ab10 <- 0

> fichero$Ab10[150] <- 1

Veamos cómo queda el gráfico de supervivencia para empezar a entenderlo.

Caso 1: Ningún cliente se da de baja, en ese caso la probabilidad de supervivencia es siempre del 100% como puede verse en la imagen 2.

ggsurvplot(survfit(Surv(Semana, Ab0, type=”right”) ~ 1, data = fichero) )

Análisis de supervivencia

Ningún cliente de baja

 

Caso 2: Todos los clientes se dan de baja, en este caso la curva de supervivencia señala el momento de la baja. Como puede observarse es una curva más posicionada a la izquierda que la de la imagen 1, en donde sólo había un 15% de bajas.

ggsurvplot(survfit(Surv(Semana, Ab1, type=”right”) ~ 1, data = fichero) )

Análisis de supervivencia

Todos los clientes se dan de baja

 

Caso 3: Sólo el último cliente se da de baja. En este caso, vemos que la probabilidad final de supervivencia es 0, a pesar de que durante 299 casos ha sido del 100%. Esto se produce porque la probabilidad de supervivencia está en función del tiempo y en función del número de casos producido, y no sólo en función de uno de los dos.

ggsurvplot(survfit(Surv(Semana, Ab01, type=”right”) ~ 1, data = fichero) )

Análisis de supervivencia

Sólo el último cliente se da de baja

 

Caso 4: Un cliente, pero no el último, se da de baja. En este caso puede verse como la probabilidad de supervivencia, se altera ligeramente, para luego permanecer constante y terminando siendo un valor distinto de cero. Muy diferente del caso anterior, a pesar de ser muy parecido, debido a que la probabilidad de supervivencia queda condicionado por el tiempo.

ggsurvplot(survfit(Surv(Semana, Ab10, type=”right”) ~ 1, data = fichero) )

Análisis de supervivencia

Sólo el último cliente se da de baja, pero no el último

 

Como puede verse, en las imágenes 4 y 5. Siempre que el último valor sea una baja, la probabilidad final de supervivencia es 0, y no lo es en caso contrario. Hecho que es muy importante a la hora de calcular esperanzas de vida, como veremos más adelante.

Pero veamos con más detalle cómo se calculan las probabilidades de supervivencia, porque es lo que nos va a permitir entender este tipo de análisis. Esto puede investigando el objeto R “todo” que hemos creado.

> str(todo)

List of 13

 $ n        : int 300

 $ time     : int [1:155] 56 59 72 84 87 100 102 103 109 110 …

 $ n.risk   : num [1:155] 300 299 298 297 296 295 294 292 290 289 …

 $ n.event  : num [1:155] 1 0 0 0 0 0 0 0 0 0 …

 $ n.censor : num [1:155] 0 1 1 1 1 1 2 2 1 1 …

 $ surv     : num [1:155] 0.997 0.997 0.997 0.997 0.997 …

 $ type     : chr “right”

 $ std.err  : num [1:155] 0.00334 0.00334 0.00334 0.00334 0.00334 …

 $ upper    : num [1:155] 1 1 1 1 1 1 1 1 1 1 …

 $ lower    : num [1:155] 0.99 0.99 0.99 0.99 0.99 …

 $ conf.type: chr “log”

 $ conf.int : num 0.95

 $ call     : language survfit(formula = Surv(Semana, Abandono, type = “right”) ~ 1, data = fichero)

 – attr(*, “class”)= chr “survfit”

En este caso puede verse que a pesar de que tenemos 300 clientes, sólo tenemos 155 momentos distintos en donde se produce o bien una permanencia o bien un abandono, y son esos 155 momentos los que se estudian en la variable “time”.

También puede verse que en el sub-objeto R “todo$surv” tenemos guardadas los 155 valores distintos de las probabilidades, que en el sub-objeto “todo$n.event” tenemos si en ese momento se ha producido un suceso de permanencia o abandono, que en el sub-objeto “todo$n.risk” el número de clientes que nos quedan después de ese momento. Y son con esas variables con las que vamos a trabajar.

Para ello, pasamos todas las variables que nos interesan a una matriz, y empezamos la exploración.

estudio <- cbind(todo$time,todo$n.risk,todo$n.event,todo$surv)

>head(estudio)

     [,1] [,2] [,3]      [,4]

[1,]   56  300    1 0.9966667

[2,]   59  299    0 0.9966667

[3,]   72  298    0 0.9966667

[4,]   84  297    0 0.9966667

[5,]   87  296    0 0.9966667

[6,]  100  295    0 0.9966667

En este caso vemos que en la semana 56 (columna 1), se ha producido una baja por lo que la probabilidad de supervivencia, teniendo en cuenta que es sólo una baja sobre 300 clientes es de:

 299/300 = 0,9966667.

En la semana 59 (fila 2) no se produce ninguna baja, por lo que la probabilidad de supervivencia, no queda afecta aunque se calcularía como:

Probabilidad anterior * (1 – (Bajas habidas / Clientes que aún quedan por calcular))

Es decir 0,996667 * (1 – (0/299)) = 0,996667

Si pasamos ahora ver la siguiente baja, vemos que es la que se produce en la semana 173.

> estudio[55:58,]

     [,1] [,2] [,3]      [,4]

[1,]  171  222    0 0.9966667

[2,]  172  216    0 0.9966667

[3,]  173  215    1 0.9920310

[4,]  175  214    0 0.9920310

En este caso, el valor de la probabilidad de supervivencia se calcularía, con 215 clientes que aún nos quedan, así:

0,996667 * (1 – (1/215)) = 0,996667 * 0,995349 = 0,992031

Siguiendo así, podemos ver en el caso de la semana 277, en donde se han producido 2 bajas que la probabilidad de supervivencia queda calculada así:

> estudio[140:145,]

     [,1] [,2] [,3]      [,4]

[1,]  276   17    0 0.4840808

[2,]  277   16    2 0.4235707

[3,]  278   14    0 0.4235707

[4,]  279   13    1 0.3909883

[5,]  281   12    0 0.3909883

[6,]  284   11    1 0.3554439

Valor semana 277 = 0,4840808 * (1 – (2/16)) = 0,4840808 * 0,875 = 0,4235707

Lo que significa que con los datos que tenemos, la probabilidad de que un cliente permanezca en la empresa en la semana 277 de antigüedad es del 42,35%.

Con esto puede entenderse que si el último cliente que tenemos tiene una baja, la probabilidad final valdrá cero, mientras que si no lo fuera, significaría que la probabilidad de que un cliente siga en la empresa en la semana 12.879, por ejemplo que es más de 2 siglos, no sería nula, si no que mantendría el último valor de la probabilidad que hayamos obtenido por este procedimiento de cálculo, lo que es absurdo.

> estudio[150:155,]

     [,1] [,2] [,3]      [,4]

[1,]  299    6    1 0.2073423

[2,]  314    5    0 0.2073423

[3,]  316    4    0 0.2073423

[4,]  317    3    1 0.1382282

[5,]  319    2    0 0.1382282

[6,]  341    1    1 0.0000000

Por todo ello, es muy importante entender que las probabilidades de supervivencia, son probabilidades condicionadas a que se alcance una cierta antigüedad y que, por lo tanto, dependen del tiempo, así como del número de clientes que hayan permanecido o abandonado la empresa.

Si repasamos ahora, porqué son tan diferentes los datos de las imágenes 4 y 5, tenemos que concluir que esa diferencia es debida a la “censura por la derecha”, es decir a que no tenemos datos del futuro (desconocimiento parcial), pero también es debida a la manera de calcular las probabilidades de supervivencia según los datos de que disponemos. En una caso las probabilidades finales de supervivencia son nulas, mientras que en el otro superan el 99%, de ahí que tengamos que tener cuidado a la hora de seleccionar los datos con los que trabajamos, para que las conclusiones a las que lleguemos tengan sentido.

Toda esta información sirve por ejemplo, para decidir el coste adecuado tanto de adquisición, como de mantenimiento de un cliente. Si por ejemplo, el beneficio esperado por cliente es 10 euros a la semana, como sabemos que la esperanza de vida media es de 275,05 semanas, entonces el beneficio a lo largo de la vida del cliente es de 275,05 semanas * 10 € / semana = 2.750,5 euros. Por lo que todo coste para retener a un cliente que supere esa cantidad, no tendría lógica, puesto que provocaría pérdidas.

Al mismo tiempo, tenemos que si la probabilidad de supervivencia en la semana 300 es del 21%, cualquier decisión estratégica que tenga ese horizonte, debe tenerlo en cuenta para, o bien para tener en cuenta la caída de ingresos, o bien para planificar la renovación de la cartera de clientes. 

Relacionado con todo esto, se presenta el concepto de media restringida, o “rmean”, que representa el cálculo de la vida media, planteando un horizonte máximo, es decir, imaginemos que estamos programando a 105 semanas o dos años. Esto se realiza con ayuda de la orden “print” con el parámetro “rmean

> print(todo, rmean=105)

Call: survfit(formula = Surv(Semana, Abandono, type = “right”) ~ 1,

    data = fichero)

         n     events     *rmean *se(rmean)     median    0.95LCL    0.95UCL

   300.000     45.000    104.837      0.163    272.000    262.000    288.000

    * restricted mean with upper limit =  105

En este caso, vemos que con ese límite, la esperanza de vida es 104,83 semanas y que representa el área de la curva de la imagen 6, que está bajo la curva de probabilidad y a la izquierda de la fecha azul y que tiene  un sentido diferenciador cuando se comparan subgrupos dentro de la muestra, mucho más que cuando se ve de manera aislada.

Análisis de supervivencia

Explicación del concepto de media restringida como el área bajo la curva y a la izquierda de la flecha

 

Para comprender mejor el sentido de media restringida, examinemos la supervivencia según la zona, viendo primero las 4 zonas de ventas, según sus curvas de probabilidad de supervivencia.

zona <- survfit(Surv(Semana, Abandono, type=”right”) ~ Zona, data = fichero)

ggsurvplot(zona)

Análisis de supervivencia

Probabilidades de supervivencia en cada una de las 4 zonas. A más debajo de cada curva, mayor probabilidad de supervivencia

 

> print(zona,rmean=105)

Call: survfit(formula = Surv(Semana, Abandono, type = “right”) ~ Zona,

    data = fichero)

              n events *rmean *se(rmean) median 0.95LCL 0.95UCL

Zona=Centro 126     11    105      0.000    341      NA      NA

Zona=Este    21      2    105      0.000    299      NA      NA

Zona=Norte   40      5    105      0.000    272     257      NA

Zona=Sur    113     27    105      0.432    265     256     284

    * restricted mean with upper limit =  105

> print(zona,rmean=260)

Call: survfit(formula = Surv(Semana, Abandono, type = “right”) ~ Zona,

    data = fichero)

              n events *rmean *se(rmean) median 0.95LCL 0.95UCL

Zona=Centro 126     11    252       2.41    341      NA      NA

Zona=Este    21      2    256       3.32    299      NA      NA

Zona=Norte   40      5    256       1.91    272     257      NA

Zona=Sur    113     27    249       2.95    265     256     284

    * restricted mean with upper limit =  260

> print(zona,rmean=2600)

Call: survfit(formula = Surv(Semana, Abandono, type = “right”) ~ Zona,

    data = fichero)

              n events *rmean *se(rmean) median 0.95LCL 0.95UCL

Zona=Centro 126     11    307       9.42    341      NA      NA

Zona=Este    21      2    292       7.02    299      NA      NA

Zona=Norte   40      5    263       3.66    272     257      NA

Zona=Sur    113     27    261       4.87    265     256     284  

* restricted mean with upper limit =  2600

Como puede verse, las decisiones que se puedan tomar con un horizonte a 105 semanas, no van a tener repercusiones entre unas zonas de ventas y otras. Cosa que no sucede cuando el horizonte es de 260 semanas, o cuando no hay horizonte final, puesto que el valor del rmean es diferente.

También se puede realizar este estudio cuando se combinan más factores, para examinar así la esperanza de supervivencia. En el caso que viene a continuación lo hacemos combinando las variables Edad, Sexo, Zona, examinando en cuáles de todas las combinaciones tenemos menor esperanza de vida para nuestros clientes, viendo también porqué se produce ese valor e identificando donde se producen los mayores abandonos.

>especial <- survfit(Surv(Semana, Abandono, type=”right”) ~ Edad + Sexo + Zona, data = fichero)

>summary(print(especial,rmean=260))$table -> estudio2

>head(estudio2[order(estudio2[,5]),c(1:6)])

                                  records n.max n.start events   *rmean *se(rmean)

Edad=70, Sexo=Hombre, Zona=Centro       6     6       6      1 227.0000   0.000000

Edad=70, Sexo=Hombre, Zona=Sur          7     7       7      1 232.6667  17.418594

Edad=50, Sexo=Mujer , Zona=Sur         18    18      18      5 235.0312  11.638114

Edad=60, Sexo=Mujer , Zona=Centro       4     4       4      1 236.0000  12.727922

Edad=60, Sexo=Hombre, Zona=Centro      16    16      16      2 236.5000   6.080193

Edad=60, Sexo=Hombre, Zona=Este         7     7       7      1 239.5000  10.253048

 

>estudio2[estudio2[,4]>2,c(1:6)]

                                  records n.max n.start events   *rmean *se(rmean)

Edad=40, Sexo=Hombre, Zona=Centro      24    24      24      3 246.5208   4.801243

Edad=40, Sexo=Hombre, Zona=Sur         14    14      14      3 243.5000   5.356071

Edad=40, Sexo=Mujer , Zona=Sur         10    10      10      3 254.0000   0.000000

Edad=50, Sexo=Hombre, Zona=Sur         28    28      28      9 243.0529   4.451569

Edad=50, Sexo=Mujer , Zona=Sur         18    18      18      5 235.0312  11.638114

Edad=60, Sexo=Hombre, Zona=Sur         18    18      18      3 254.0000   0.000000

También con la orden “survdiff”, podemos realizar un test de hipótesis no paramétrico que nos diga si la diferencia de la probabilidad de supervivencia entre subgrupos es significativa o no. En este caso lo sería, al obtener un p-value < 0,05, experimentando esas diferencias en las zonas Centro y Sur, que sería en donde deberíamos de realizar un estudio más en profundidad.

> survdiff(Surv(Semana, Abandono, type=”right”) ~ Zona, data = fichero)

Call:

survdiff(formula = Surv(Semana, Abandono, type = “right”) ~ Zona,

    data = fichero)

              N Observed Expected (O-E)^2/E (O-E)^2/V

Zona=Centro 126       11    18.57    3.0862    5.6607

Zona=Este    21        2     3.16    0.4251    0.4672

Zona=Norte   40        5     5.48    0.0413    0.0502

Zona=Sur    113       27    17.79    4.7618    8.2159

 Chisq= 8.8  on 3 degrees of freedom, p= 0.0326

Observaciones.

1.- En otros análisis de supervivencia, en donde se puede considerar constante la baja de individuos a lo largo del tiempo, es decir, en modelos de tipo biológico o de tipo industrial, en donde tratan conceptos sobre supervivencia de bacterias o durabilidad de componentes electrónicos, se realizan el llamado estudio Cox, en donde, igual que en la regresión logística estudia la influencia de cada factor en la probabilidad de supervivencia.

Esto se realiza así.

> zona.cosph <- coxph(Surv(Semana, Abandono, type=”right”) ~ Zona, data = fichero)

> summary(zona.cosph)

Call:

coxph(formula = Surv(Semana, Abandono, type = “right”) ~ Zona,

    data = fichero)

  n= 300, number of events= 45

             coef exp(coef) se(coef)     z Pr(>|z|)  

ZonaEste  0.09848   1.10349  0.77778 0.127  0.89924  

ZonaNorte 0.50605   1.65873  0.56384 0.898  0.36944  

ZonaSur   1.00816   2.74056  0.37490 2.689  0.00716 **

Y para el caso significativo (p-value < 0,05) de la Zona Sur significaría que la probabilidad de abandona se multiplica por 2,74 por el hecho de no estar a estar en la zona Sur, pero repetimos, si tuviera una tasa constante de abandonos a lo largo del tiempo, que en el caso de abandono de clientes casi nunca se cumple.

2.- Este mismo análisis conviene repetirlo pasado un cierto tiempo, para comprobar si las medidas que se han tomado han conseguido alargar el ciclo de vida del cliente. En ese caso, conviene tomar nuevos datos y estudiarlos conjuntamente con los antiguos, indicando en una variable el tipo de estudio que es. Después se puede realizar el análisis de las probabilidades de supervivencia de forma segmentada, igual que lo hemos hecho nosotros con respecto a las zonas, y ver si existen diferencias significativas y en qué circunstancias se producen con ayuda de la orden “survdiff”.

Esto puede realizarse así, introduciendo la salida de la instrucción en un objeto R, y luego transformando ese objeto en una variable “matriz” con la información que nos interesa para poder operar con ella, viendo en donde se han producido las principales diferencias.

> survdiff(Surv(Semana, Abandono, type=”right”) ~ Edad + Sexo, data = fichero) -> fr

> summary(fr)

      Length Class  Mode  

n      12    table  numeric

obs    12    -none- numeric

exp    12    -none- numeric

var   144    -none- numeric

chisq   1    -none- numeric

call    3    -none- call  

> cbind(unlist(fr[1]),unlist(fr[2]),unlist(fr[3])) -> fr2

> fr2 <- cbind(fr2,(fr2[,2]-fr2[,3])^2/fr2[,3])

> fr2[fr2[,4]>1,]

                       [,1] [,2]     [,3]     [,4]

n.Edad=30, Sexo=Hombre   16    0 1.515006 1.515006

n.Edad=30, Sexo=Mujer     7    0 1.056405 1.056405

n.Edad=60, Sexo=Hombre   49    7 4.172307 1.916409

n.Edad=60, Sexo=Mujer    16    4 1.883192 2.379404

n.Edad=70, Sexo=Hombre   15    3 1.486155 1.542050

3.- Este tipo de análisis es NO paramétrico, y se ha impuesto sobre los análisis paramétricos con funciones Weibull o exponenciales. Aunque en entornos biológicos o industriales, se aplican con más frecuencia que en márketing, análisis de supervivencia paramétricos. En estos casos, hay que explicar en el modelo qué rol juega cada parámetro de la función que ajusta la probabilidad de supervivencia, aunque repetimos, en el caso de abandono de clientes en una empresa, no suele hacerse, siendo el análisis no paramétrico más aplicable y más sencillo de explicar.

Autor: Pedro José Jiménez, profesor del Máster en Big Data y Business Intelligence

Máster en Big Data y Business Intelligence

Aumento en la competitividad dentro del mercado aéreo

La desregulación del mercado aéreo ha contribuido a la consolidación de la competencia entre los aeropuertos por captar clientes. Los profesionales en la planeación de los aeropuertos deben entender las implicaciones de este fenómeno para poder diseñar infraestructura que pueda adaptarse a esta nueva realidad. 

Los aeropuertos han sido considerados tradicionalmente como proveedores monopólicos de servicios públicos con poco potencial para desarrollar un mercado aéreo más atractivo. Sin embargo, la liberalización de los mercados aéreos, especialmente en los Estados Unidos y Europa, introdujo una nueva dinámica que aumentó de la complejidad del sector de los aeropuertos. La aparición de la competencia entre los aeropuertos y la transición de la propiedad hacia la privatización o comercialización, requieren una perspectiva diferente en la gestión de la infraestructura aeroportuaria. En este sentido, cobra vital importancia la especialización en el diseño, la construcción y el mantenimiento de los aeropuertos.

Algunos aeropuertos han reconocido la importancia de la formulación de estrategias para operar mercados altamente competitivos. Actualmente, además de cumplir su rol dentro del sistema de transporte aéreo, los aeropuertos están orientados a satisfacer otras necesidades de naturaleza comercial, industrial, de negocios, de servicios y de entretenimiento, en función del tipo de tráfico que atienden.

Mercado aéreo

 

De este modo, los grandes aeropuertos de pasajeros cuentan con edificios terminales similares, en muchas zonas, a los modernos centros comerciales. Otros aeropuertos se han especializado en el transporte de mercancías por vida aérea y para ello han construido centros de logística para el manejo de las mercancías, almacenes y edificios de oficinas, entre otros. En una proporción menor, es común encontrar zonas industriales en las proximidades o inclusive dentro de los predios del aeropuerto, en la forma de zonas francas o centros industriales. Esta diversificación se justifica en la necesidad del operador del aeropuerto de crear ingresos adicionales a los aeronáuticos (conocidos como ingresos no aeronáuticos) que permitan financiar las cuantiosas inversiones requeridas para desarrollar los aeropuertos.

La educación tradicional en sistemas de transporte aéreo trata los aspectos comerciales y sistémicos de la planificación de aeropuertos como algo secundario y en algunos casos irrelevante. Sin embargo, la relación de cada nueva infraestructura con su entorno y cómo se materialicen los flujos de capitales definirá la viabilidad del aeropuerto en un mercado cada vez más competitivo. 

Autor: Juan Pablo Duarte, profesor del Máster en Aeropuertos: Diseño, Construcción y Mantenimiento

Máster en Aeropuertos: Diseño, Construcción y Mantenimiento

Hidroeléctrica Reventazón, la central hidroeléctrica más grande de Centroamérica

Recientemente se ha abierto en Costa Rica la planta hidroeléctrica Reventazón, la más grande de Centroamérica, y, con la que este país quiere lograr generar electricidad sin utilizar un solo vatio procedente de los hidrocarburos.

Esta central hidroeléctrica está ubicada en mitad del río Reventazón y consta de un embalse que ocupa 700 hectáreas con una represa de 130 metros de altura.

Es la segunda construcción en cuanto a envergadura en la región, tan sólo por detrás del imponente Canal de Panamá. Ha sido diseñada y construida por el Instituto Costarricense de Electricidad (ICE), que estima que llegará a producir algo más de 305 megavatios de electricidad, abasteciendo a más de medio millón de hogares, rondando el 40% del total en el país.

La planta hidroeléctrica Reventazón permitirá reducir al mínimo el uso de las plantas térmicas de Costa Rica, así como garantizará el abastecimiento de energía que no reporten otras fuentes renovables del país.

El año pasado el país centroamericano logró un hito histórico  al conseguir que menos de un 1% de la energía originada proviniese de la combustión de petróleo. Por otra parte, la capital San José, ha sido iluminada con energía hidroeléctrica desde 1884.

Pero el trabajo de Costa Rica por abastecerse de energías renovables no para aquí, puesto que tienen proyectada las construcción de tres plantas geotérmicas en varios volcanes del Pacífico norte, mientras que entre 2018 y 2025 esperan construir una nueva planta hidroeléctrica que genere el doble de energía que la hidroeléctrica Reventazón.

Fuente: www.elpais.com

Las energías renovables son uno de los motores de la economía y una de las alternativas al obsoleto modelo de consumir energía de nuestra sociedad en la actualidad, si quieres formar parte de este sector fórmate con nuestro Máster en Energías Renovables y Eficiencia Energética.

Máster en Energías Renovables y Eficiencia Energética

Transporte aéreo y la expansión mundial del comercio electrónico

En el siguiente post analizamos la influencia del transporte aéreo en la expansión del comercio electrónico a nivel mundial.

La verdadera explosión y expansión a nivel mundial del comercio electrónico ha venido de un lado por la adecuación y mejora de las condiciones de comercio a través de la Organización Mundial del Comercio y, de otro, a través de la facilitación tecnológica que ha permitido conexiones mundiales logísticas para su realización.

Uno de los factores esenciales de la increíble explosión del comercio mundial actualmente ha sido la logística. Y dentro de la logística, el transporte aéreo es uno de los pilares más importantes como elemento facilitador de este comercio.

No podemos olvidar alguna de las características básicas de este modo de transporte de mercancías: la rapidez. Y es que este atributo tan importante en la actualidad permite que el transporte aéreo sea el elegido para una logística adecuada.

En un mundo como el nuestro, tan acelerado, tan competidor, tan exigente, la rapidez del modo aéreo define en muchos casos la diferencia entre éxito y fracaso para una empresa productora, distribuidora o comercializadora.

                                                         Transporte aéreo de mercancías

Podríamos recordar muchos casos bien conocidos por todos en la actualidad en los que la rapidez de la logística juega un papel muy importante de cara al triunfo empresarial. Compañías del calibre de INDITEX, H&M, IKEA, AMAZON, ALIBABA, y compañías proveedoras de otras de bienes de equipo, nos dan una idea de la necesidad de una logística rápida, económica, adecuada, perfeccionada y optimizada para cada uno de los clientes finales en cada etapa.

La compañía de ropa ZARA renueva a nivel mundial sus estanterías con nuevas prendas cada dos semanas, ciclo que incluye desde el diseño de cada pieza hasta la distribución capilar a las tiendas de las nuevas colecciones pasando por el transporte aéreo usado en algunas de las etapas de la logística necesaria.

La empresa de comercio AMAZON, con vocación clara de ser el proveedor mundial de casi cualquier cosa comercializable, basa su estrategia de éxito en la rapidez de respuesta tanto en sus ventas como en la logística reversa (devoluciones) con una absoluta flexibilidad. AMAZON consigue entregar las compras al día siguiente de ser efectuada ésta en sus servicios Premium. Y, en cualquier caso, en muy pocos días después.

Aquí reside el éxito: en el mundo dónde una de las exigencias fundamentales es la rapidez, esta compañía la proporciona con perfección absoluta.

Así, a través de este ejemplo tan esclarecedor y actual, se pone de manifiesto la importancia del transporte aéreo, modo de transporte que cumple todos los requerimientos exigibles en el comercio que la sociedad actual demanda: rapidez, comodidad, facilidad, flexibilidad y relativa economía para tan gran volumen de movimiento de carga.

Pero no solamente debemos hablar de comercio electrónico como beneficiario de un transporte aéreo cada vez más eficiente, ecológico y adecuado para su logística sino también de la cadena de suministro en la que está inmerso todos los modos de transporte y también por supuesto el modo aéreo.

Con el gran desarrollo del comercio mundial las empresas venden cada vez más fuera de sus fronteras como proveedores intermedios para productos finales. De ahí mostrar la importancia de conseguir la eficiencia, la sincronización total y la economía necesarias para crear cadenas de suministroSupply Chain – seguras y perfectas.

Autor: Santiago Tovar, profesor del Máster en Logística y Transporte

Máster en Logística y Transporte

Así es el primer autobús túnel del mundo

El pasado mes de agosto se presentó en China el primer autobús túnel, bajo el cual puede transcurrir el tráfico rodado, mientras éste circula por las alturas sin interceder en lo que ocurre en la calzada.

Este autobús túnel mide 22 metros de largo, 4,8 de alto y tiene una anchura de 7,8 metros, ocupando ambos carriles en un sentido circulatorio.

Tiene una capacidad para 300 pasajeros y el primer modelo denominado como TEB-1, realizó un recorrido experimental de unos 300 metros en la ciudad de Qinhuangdao, al noroeste de China. Durante esta probatura un vehículo adelantó a otro bajo el autobús túnel para mostrar las opciones que ofrece y que no intercede en el tráfico que circula bajo este espectacular vehículo.

Se trata de una excelente opción para descongestionar el tráfico rodado de las grandes ciudades, y, es visto por las autoridades chinas como una alternativa más económica que las redes de metro. Aunque el prototipo aún tiene una pequeña pega, ya que, aun tiene dificultades para girar en las curvas.

Los desarrolladores ha asegurado que seguirán perfeccionando este modelo de autobús túnel y creen que llegará a ser uno de los elementos clave de las redes de transporte público, llegando a transportar hasta 1.200 pasajeros al mismo tiempo.

En la actualidad debido a la congestión de las gran cantidad de ciudades en el mundo soluciones como ésta se hacen vitales para mejorar la seguridad vial, si te interesa trabajar en este sector y quieres formarte nuestro Máster Internacional en Tráfico, Transportes y Seguridad Vial.

Máster Internacional en Tráfico, Transportes y Seguridad Vial

Data Warehouse, smart cities y el internet de las cosas

Se definen las Smart Cities como aquella ciudad que usa las TIC para hacer que, tanto su infraestructura crítica, como sus componentes y servicios públicos ofrecidos, sean más interactivos, eficientes y los ciudadanos puedan ser más conscientes de ellos.

Disponer de Smart Cities ayuda a la gestión automática y eficiente de las infraestructuras y servicios urbanos, lo que redunda en la reducción del gasto público, la mejora de la calidad de los servicios prestados, la mejora de la información a los ciudadanos y la mejora en la toma de decisiones. Además, la propia plataforma Smart City constituye en sí una vía para la innovación, favoreciendo la incubación de nuevos negocios e ideas.

Son muchos los tipos de iniciativas que se enmarcan dentro de un proyecto global de Smart Cities. Los ejes en los que suele incidir un proyecto de Smart City tienen que ver con la movilidad urbana, la eficiencia energética y en general, la gestión sostenible de los recursos, la gestión de las infraestructuras de la ciudad, el gobierno participativo y la seguridad pública así como con las áreas de salud, educación y cultura.

Pero el modelo objetivo de Smart City ha de ser tener una visión holística de ciudad que permita ir desplegando servicios según prioridades sin que ello suponga tener silos de información que comprometan el desarrollo futuro de las Smart Cities y sus servicios.

Muchos de estos servicios que adelantan ya el futuro mundo digital adquieren precisamente la masa crítica necesaria para su despliegue en el contexto de la Smart City. Adicionalmente, poder cruzar la información procedente de ámbitos de gestión diferentes de la ciudad en tiempo real (o casi real) es algo que solo puede llevarse a cabo en el marco de una Smart City y eso le confiere un especial valor, que favorece ese salto cualitativo en la manera de gestionar las ciudades que se va a hacer necesario en los próximos años.

Las competencias y los servicios públicos en las ciudades

Las ciudades se enfrentan a numerosos retos. Pero no hay que olvidar que en la actualidad ya tienen un gran número de servicios que atender. Las competencias de los ayuntamientos tienen que ver con la provisión de numerosos servicios públicos que van desde asegurar la seguridad en los lugares públicos a la ordenación del tráfico, la protección civil, la protección del medio ambiente, el suministro de agua o el transporte público.

En la siguiente tabla se recogen las competencias propias de los municipios españoles:

 

Sin embargo, con independencia del marco competencial, muchos ayuntamientos tienen que abordar la prestación de otros muchos más servicios, por lo que la gestión de los municipios se hace cada vez más compleja y gravosa, sobre todo en las grandes ciudades.

De hecho, se estima que, en el conjunto de los municipios españoles, alrededor del 30% del gasto va dedicado a financiar competencias no obligatorias. Las competencias de seguridad, protección civil, protección social y cultura son las que más recursos absorben en esta línea.

smart cities

¿Qué es una Smart City?

Definimos Smart City (en castellano Ciudad Inteligente) como aquella ciudad que usa las tecnologías de la información y las comunicaciones para hacer que tanto su infraestructura crítica, como sus componentes y servicios públicos ofrecidos sean más interactivos, eficientes y los ciudadanos puedan ser más conscientes de ellos.

En una definición más amplia una ciudad se puede considerar como “inteligente”, cuando las inversiones en capital humano y social, y en infraestructura de comunicación, fomentan precisamente un desarrollo económico sostenible y una elevada calidad de vida, con una sabia gestión de los recursos naturales a través de un gobierno participativo.

Ahorros en la previsión de servicios en el marco de las Smart Cities

En la práctica, y a un nivel más popular, una Smart City es una ciudad comprometida con su entorno, tanto desde el punto de vista medioambiental como en lo relativo a los elementos culturales e históricos, con elementos arquitectónicos de vanguardia, y donde las infraestructuras están dotadas de las soluciones tecnológicas avanzadas para facilitar la interacción del ciudadano con los elementos urbanos, haciendo su vida más fácil.

En un contexto tecnológico, el concepto Smart City y el de Internet de las cosas son dos términos que van muy unidos. Ambos conceptos tienen en las comunicaciones M2M (máquina a máquina) su fundamento y adelantan, con sus aplicaciones y usos, la que está llamada a ser el Internet del futuro.

smart cities

Precisamente ese Internet del futuro no sólo consistirá en la conexión de cada vez más personas, sino en el planteamiento de un mundo digital en el que, idealmente, todo podrá estar conectado. Desde dispositivos, hasta objetos del mundo físico que habitualmente no disponían de esta conectividad; es el caso de los elementos urbanos, de los edificios, los coches, los electrodomésticos, los contadores, etc. y en general todo aquello que haya que gestionar o controlar.

Sin duda, esta nueva “realidad en red” va a conllevar una nueva forma de gestionar una casa, cualquier infraestructura, una empresa, una comunidad, una ciudad o incluso la economía de un país.

La Smart City se convierte en una plataforma digital que permite maximizar la economía, la sociedad, el entorno y el bienestar de las ciudades, y facilita el cambio hacia un comportamiento más sostenible entre todos los agentes: usuarios, empresas y Administración.

La Smart City busca, además, aprovechar al máximo los presupuestos públicos, precisamente gracias a la mejora de los procesos propios de la ciudad y sus habitantes. Por otro lado, permite habilitar nuevos modelos de negocio, constituyendo una excelente plataforma para la innovación en su entorno. En este contexto, una Smart City es un sistema complejo, un ecosistema en el que intervienen múltiples agentes, en el que coexisten muchos procesos íntimamente ligados y que resultan difíciles de abordar de forma individualizada.

De manera descriptiva, una Smart City es un espacio urbano con infraestructuras, redes y plataformas inteligentes, con millones de sensores y actuadores, dentro de los que hay que incluir también a las propias personas  y a sus teléfonos móviles. Es un espacio que es capaz de escuchar y de comprender lo que está pasando en la ciudad y ello permite tomar mejores decisiones y proporcionar la información y los servicios adecuados a sus habitantes. Además, el uso de técnicas analíticas avanzadas en tiempo real es lo que permite crear una especie de conciencia y entendimiento sobre la ciudad, lo que sin duda, mejora los servicios prestados.

 Fuentes de valor de las smart cities

Tecnologías para las Smart Cities

Las Smart Cities son ecosistemas complejos en los que intervienen numerosas tecnologías y múltiples agentes que las implementan, operan y usan. Estas tecnologías se enfrentan además a retos como los de escalabilidad, capacidad, movilidad y gestión de la seguridad y privacidad de la información. Por ello, para entender bien la cadena de valor de los servicios propuestos en el marco de la ciudad inteligente, hay que entender también qué puede ofrecer la tecnología.

La  creación de una ciudad inteligente es algo mucho más que la provisión de ciertos servicios de forma individual. Desplegar una Smart City lleva asociada la creación de una serie de infraestructuras así como disponer de mecanismos de gestión de la información y diferentes plataformas, todo ello integrado bajo una perspectiva global.

De manera sintética se pueden definir en cinco los pasos de la que podríamos denominar “cadena de valor tecnológica” de la Smart City:

  • En primer lugar se encuentra la etapa de recolección de datos de la ciudad. Esta tarea se realiza utilizando sensores, actuadores y diferentes dispositivos, entre los que hay que incluir los móviles de las personas, diferentes aparatos del entorno del hogar, los vehículos, así como los dispositivos de medida situados en infraestructuras fijas, como mobiliario urbano, edificios, sistemas de canalización y tuberías, estaciones metereológicas y así un largo etcétera.
  • En segundo lugar se realiza la transmisión de los datos recopilados de la ciudad a través de las redes de comunicación. Esto se lleva a cabo mediante una combinación de infraestructura inalámbrica, móvil y fija dependiendo de las necesidades de movilidad, ancho de banda y latencia de la aplicación en concreto. En algunos casos las redes inalámbricas y móviles serán las únicas de las que se disponga. La arquitectura de esta red será muy variada. Por regla general, los sensores transmitirán la información a través de protocolos ligeros a coordinadores o gateways que a su vez enrutarán los datos a través de líneas móviles o fijas y lo harán llegar a las bases de datos y plataformas que faciliten la provisión de los servicios. 

En esta arquitectura hay que destacar que, en algunas ocasiones, los propios sistemas de sensores van provistos de cierta inteligencia y son capaces de actuar de manera autónoma para proveer ciertos servicios o partes del servicio sin la necesidad de conectar con el servidor central.

Un ejemplo en este sentido podría ser el de los sistemas de riego, que podrían activarse con una programación horaria que también tuviera en cuenta la humedad del ambiente, por lo que cierta parte del servicio, con su lógica o inteligencia, podría funcionar de manera autónoma sin necesidad de conectar con un servidor central. De manera adicional el sistema podría ser activado remotamente, o reportar datos al sistema central con el fin de utilizarlos posteriormente para analizar la manera de optimizar el mantenimiento de los jardines, aprender del uso, etc.

Por lo que en cualquier caso, el hecho de disponer de la conectividad a la Red es lo que lo dotaría de toda su funcionalidad “smart”.

  • Una tercera fase comprende el almacenamiento y el análisis de los datos: se trata de almacenar en una plataforma central (Data Warehouse) los datos recopilados en el entorno de la ciudad al mismo tiempo que se facilita su procesamiento posterior mediante diferentes sistemas analíticos.  Para ello, el repositorio de información no ha de ser volátil, permitiendo además el uso posterior de los datos por parte de aplicaciones y servicios.
  • En cuarto lugar, los datos alimentan una Plataforma de provisión de servicios. Esta plataforma facilita la prestación de los servicios en el ámbito de la Smart City y está formada a su vez por módulos que permiten, por ejemplo, gestionar el precio, facturar, gestionar las relaciones con el cliente, etc. Además, tiene interfaces que serán utilizadas para implementar los servicios que serán entregados a los clientes finales.
  • Finalmente se encuentran los Servicios de la Smart City, que podrán ser desarrollados por los mismos agentes involucrados en el resto de la cadena de valor tecnológica o por otros agentes, en muchos de los casos, los agentes ya involucrados en la provisión de cada servicio en concreto en el ámbito de la ciudad pertenecientes a los diferentes sectores y ámbitos económicos.

Servicios finales de las Smart Cities

En posteriores artículos veremos en detalle cada uno de los 5 componentes descritos que conforman la tecnología para las Smart Cities.

Autor: José Antonio Ferreira, profesor del Máster en Big Data y Business Intelligence

Máster en Big Data y Business Intelligence

¿Cómo implementar correctamente la metodología BIM en tu empresa?

La transición al BIM es un aspecto fundamental para muchas empresas de arquitectura y construcción, ya que, en algunos países ya es obligatorio el uso de la metodología BIM, mientras que en otros lo será dentro de muy poco tiempo.

Hasta el momento la tecnología usada para este tipo de proyectos es conocida como CAD, a diferencia de éste la metodología BIM incluye modelos 3D, que facilitan tanto el proceso de construcción como la coordinación de todas las fases de dicho proyecto.

Aun así pese a ser una herramienta de gran utilidad, su implantación supone un gasto elevado para la empresa y el nivel de formación de los empleados aun no alcanza las cotas deseadas, por lo que a continuación os dejamos una serie de consejos para que la transición a la metodología BIM sea lo menos traumática posible:

Conocer a conciencia qué es BIM: el primer elemento a conocer es saber cómo la metodología BIM cambiará la forma de trabajar dentro de la empresa. Varias personas deben ocuparse de investigar los pasos a dar para integrar este nuevo flujo de trabajo correctamente.

Involucración del equipo: para un correcto desarrollo de las funciones de una empresa es vital que el equipo esté integrado e involucrado en alcanzar las metas fijadas. Para maximizar los beneficios de esta transición es fundamental dar a conocer los beneficios que reportará el uso de la metodología BIM a los diferentes departamentos de la empresa.

Adaptación a las actualizaciones de software:  ya sabéis, renovarse o morir. BIM utiliza un proceso colaborativo basado en modelos 3D inteligentes, que están sometidos a constante evolución, además los equipos deben estar preparados para soportar los requisitos técnicos que exigen este tipo de programas.

Diseñar una hoja de ruta: como todo en la vida la buena planificación nos deja margen de maniobra en caso de futuros imprevistos. La planificación para esta transición debe ser lo más detallada posible, teniendo en cuenta los miembros del equipo que necesitarán formación en BIM y ofreciendo el suficiente tiempo para que los trabajos se adapten correctamente al cambio y dominen la nueva tecnología implementada en la empresa.

Proyecto piloto: una buena forma de empezar es probando. Lo ideal sería diseñar un pequeño proyecto piloto para comprobar los cambios existentes en la metodología de trabajo y que todos los miembros del equipo se vayan adaptando a esta nueva forma de trabajo. Con este banco de pruebas se pueden evitar muchos errores en los futuros proyectos.

Documentar todo el proceso: una buena forma de trabajar puede ser la siguiente, un equipo de trabajo se encarga del proyecto piloto y otro equipo es destinado a documentar todo el proceso, para conocer en cada momento las necesidades y la forma óptima de ir solventando los inconvenientes que vayan surgiendo en el proceso.

Campeones en BIM: una buena opción es que la gente que disponga de mayor formación en la tecnología BIM se encargue del proyecto piloto y pueda ir mostrando in situ al resto de la plantilla la forma de proceder. Además podrán resolver las dudas de sus compañeros en el trabajo del día a día.

Evolución de los equipos:  se recomienda entrenar a los equipos de trabajo por separado, para que en el momento que todos ellos estén formados puedan iniciar conjuntamente un proyecto BIM. Es más productivo que integrar este proyecto desde un primer momento, ya que, en algunos casos los trabajadores pueden ir olvidando lo que han aprendido con el paso del tiempo.

Metodología BIM

La integración es la clave: el BIM implica un proceso colaborativo que explota todos sus beneficios cuando el modelo es compartido tanto por consultores, como por los ingenieros e incluso otras empresas que formen parte del proyecto. Este modelo compartido magnifica la coordinación entre los equipos de trabajo.

Herramienta de marketing:  las ventajas del BIM no sólo reportan beneficios a la empresa, sino que tienen el mismo valor añadido para los clientes de dicha empresa. Comunicar estas ventajas y beneficios a los clientes reales y potenciales puede servir como herramienta de marketing y potenciar la imagen de la empresa de cara al exterior, haciendo la oferta de servicios más sugerente para todos los clientes.

Fuente: www.archdaily.com

Este proceso se ha iniciado y ya no hay vuelta atrás, la formación en BIM se hace fundamental para todas las empresas del sector, por este motivo te ofrecemos conocimiento de calidad con nuestro Máster en BIM Management (Sistemas Revit, Allplan, AECOsim y Archicad).

Máster en BIM Management (Sistemas Revit, Allplan, AECOsim y Archicad)

Talgo comenzará a fabricar trenes de metro y tranvía

La empresa española Talgo, hasta el momento centrada en la construcción de trenes de Larga Distancia y de Alta Velocidad, ha anunciado que próximamente expandirán su mercado comenzando a desarrollar trenes de cercanías, metro y tranvía, ampliando así su oferta de vehículos para el transporte de viajeros.

Los primeros informes del fabricante ferroviario indican que hasta el 2019 la empresa recibirá pedidos por unos 12.000 millones de euros, ampliando en gran medida su negocio.

El primer vehículo diseñado se conoce como Talgo EMU, y, su construcción modular le permite adaptarse a las necesidades de los distintos operadores, así como su sistema de rodadura permite un notable ahorro de consumo energético.

La compañía ferroviaria estima que este nuevo modelo de trenes maximiza la capacidad de transporte en líneas saturadas sin necesidad de ampliar las infraestructuras ferroviarias. El Talgo EMU tendrá tres versiones para adaptarse a los distintos anchos de vía y podrá viajar a una velocidad de hasta 160 kilómetros por hora.

Fuente: www.expansion.com

Si te apasiona el sector ferroviario, trabajas en él o tu intención es lograr un empleo empleo en esta área te recomendamos fervientemente que estudies nuestro Máster en Construcción, Mantenimiento y Explotación de Metros, Tranvías y Ferrocarriles Urbanos.

Máster en Construcción, Mantenimiento y Explotación de Metros, Tranvías y Ferrocarriles Urbanos

La integración de la energía solar fotovoltaica en la edificación

La  energía solar fotovoltaica es un pilar fundamental para la implantación de las energías renovables en el sector de la edificación, y más en un país como España, cuya latitud hace que su rendimiento sea muy elevado.

La integración de la energía solar fotovoltaica, en inglés conocida como Building Integrated Photovoltaics (o por sus siglas BIPV) consiste en incorporar en el edificio, desde su concepción, módulos fotovoltaicos, de forma que estos sustituyen elementos constructivos tradicionales, tales como muros cortina, cubiertas, fachadas, parasoles, pérgolas, etc.  De esta forma, el diseño integra una fuente de energía inagotable y limpia como fuente principal de electricidad.

Los arquitectos debemos cambiar nuestra forma de proyectar los edificios, de tal forma que no sea a posteriori cuando pensemos en incluir las energías renovables: los requerimientos normativas de ahorro energético nos obligan a ser mucho más ambiciosos.

El sector de la construcción está demandando un cambio orientado a la reducción del consumo energético, además de las exigencias europeas a las que estamos obligados, y cuyo cumplimiento, lamentablemente, no parece estar cercano. Por esto, tenemos que ser capaces de integrar en nuestros edificios cuantas más fórmulas de reducción de consumo energético mejor, todo ello sin perder calidad constructiva ni la estética del edificio, que, al contrario, puede verse enriquecida enormemente con la integración de módulos de energía solar fotovoltaica.

Integración de la energía solar fotovoltaica en la edificación

Lucernario fotovoltaico en el nuevo Mercado de San Antón (Madrid) proyectado por QVE Arquitectos

 

Sustituir elementos constructivos por paneles fotovoltaicos nos permite:

  • Reducir el gasto en materiales de construcción convencionales y sus gastos de montaje
  • Colocar elementos resistentes que a la vez producen energía
  • Dotar a los edificios de una imagen técnica y novedosa
  • Reducir el consumo de energías convencionales
  • Avanzar hacia edificios de consumo energético casi nulo

Las posibilidades son tantas como la técnica nos permite, siendo el sector de la industria fotovoltaica relacionado con el BIPV uno de los segmentos de dicha industria que más avanza. En el documento Guía de Integración solar fotovoltaica editado por la Consejería de Economía y Hacienda de la Comunidad de Madrid en colaboración con FENERCOM, podemos encontrar criterios de diseño novedosos y originales, y una amplia colección de casos prácticos.

Autor: Sara Picazo, profesora del Máster en Energías Renovables y Eficiencia Energética

Máster en Energías Renovables y Eficiencia Energética

 

Nuestro amigo R: Introducción al análisis de redes

Entre las numerosas aplicaciones que tienen los algoritmos del software R, especializado en minería de datos y análisis de redes, hemos encontrado una que puede ayudar a los departamentos de Recursos Humanos y a los jefes de proyecto a analizar mejor los equipos de trabajo, solamente teniendo la información de la cantidad de correos electrónicos internos que las personas se envían entre sí.

Este tipo de análisis de redes no es intrusivo, porque no se entra a analizar el contenido de los mismos, si acaso “violando” la intimidad de las personas. Por el contrario, se analiza al equipo de trabajo en su conjunto para comprender mejor su funcionamiento procurando identificar los problemas antes de que se produzcan, teniendo pues un propósito meramente profesional.

Para ello, hemos recopilado en un archivo csv, la cantidad de correos que un ficticio equipo de 14 personas se envía entre sí. En las filas hemos escrito el origen o la persona que ha enviado el correo, y en la columna, el destinatario del mismo, tal y como muestra el gráfico 1. De ese modo podemos ver que la Persona 1 ha enviado 3 correos a la Persona 2. Y a su vez, la Persona 2, ha enviado 5 correos a la Persona 1.

Análisis de redes

Aspecto del fichero a importar

En primer lugar, importamos los datos del directorio en donde se encuentren con esta orden, indicándole que el separador de campos es un “;”, los valores que figuran como “missing”, que nos borre los caracteres en blanco no significativos y el código de caracteres que usamos.

 Análisis de redes                        

Transformamos los datos leídos en una matriz evitando los nombres de las personas que figuran en la columna 1 y que al no ser numéricos, no se va a poder trabajar con ellos. Recordemos que el equipo lo forman 14 personas y que en este vamos a obtener una matriz cuadrada de orden 14, teniendo los nombres de las personas, como nombres de las columnas con las que vamos a trabajar y que se pueden obtener con la orden “colnames(mat)”

> mat <- as.matrix(Dataset[,2:15])

Cargamos en memoria  las librerías con las que vamos a trabajar.

  • “igraph” .- sirve para analizar y visualizar las redes

> library(igraph)

Convertimos la matriz cuadrada en un gráfico dirigido, ya que no es lo mismo enviar que recibir correos, indicando que los números que figuran en la matriz son el peso que tienen las flechas que relacionan los puntos o nodos de la red y dibujamos la red para tener una primera idea.

> g1 <- graph.adjacency(mat, weighted = T, mode = ‘directed’)

> plot(g1,edge.width=2)

Análisis de redes

Aspecto de la red con la que vamos a trabajar

En primer lugar, existe la posibilidad de crear subredes para estudiarlas con más detalle, por ejemplo, eligiendo aquellas relaciones con más de 6 correos, considerando que por debajo de esa cantidad, han sido todos ceros, en donde pueden apreciarse los subgrupos significativos dentro de la red y que ha desaparecido la Persona 1 de este gráfico.

> g2 <- subgraph.edges(g1, which(E(g1)$weight > 6))

> plot(g2,edge.width=2)

Análisis de redes

Aspecto de la sub-red considerando sólo a partir de 6 correos

 

Aunque este no ha sido el caso, se puede depurar la red de aquellos elementos extraños que son: en primer lugar los correos que uno se manda a sí mismo, o auto-loops, o las flechas que pueden estar duplicadas, con los mismos orígenes y destinos.

> g1 <- simplify(g1, remove.loops = TRUE, remove.multiple = TRUE)

Comenzamos ahora con el análisis numérico de la red, examinado el número de entradas y salidas que tiene cada nodo

> in1 <- as.data.frame(igraph::degree(g1,mode = ‘in’))

> library(ggplot2)

> ggplot(in1,aes(rownames(in1))) + geom_bar(aes(weight=in1,fill=in1)) + coord_flip()

Análisis de redes

Correos recibidos por cada empleado

> out1 <- as.data.frame(igraph::degree(g1,mode = ‘out’))

> ggplot(out1,aes(rownames(out1))) + geom_bar(aes(weight=out1,fill=out1)) + coord_flip()

Análisis de redes

Correos enviados por cada empleado

 

Ahora vamos a empezar a aplicar las valoraciones de los distintos nodos de la red que propone la teoría matemática de redes. En primer lugar el concepto de intermediación, mide la cantidad de veces que un nodo concreto (n1), aparece en el camino más corto entre dos nodos cualesquiera. De ese modo, significa que el nodo n1, ejerce de intermediario para las comunicaciones entre dos personas cualesquiera. Este valor puede darse normalizado de forma que todos los nodos sumen un 100%, o no, en este último caso, el valor se calcula como el número de veces que es intermediario dividido por el número de ocasiones posibles, como puede verse en este enlace. Este concepto puede interpretarse como “valor añadido de la comunicación”, que será superior según su valor sea más alto.

> bet1 <- as.data.frame(round(igraph::betweenness(g1),3))

> rownames(bet1) <- colnames(mat)

> ggplot(as.data.frame(bet1[,1]),aes(rownames(bet1))) + geom_bar(aes(weight=bet1,fill=bet1 )) + coord_flip()

Análisis de redes

Intermediación de cada una de las personas

 

Otra métrica a tener en cuenta la cercanía que tiene cada nodo respecto de los demás. La idea intuitiva es fácil, la distancia entre cada nodo se mide por la longitud del camino más corto. De esa manera, si tomamos un cierto nodo n1 y sumamos todas las distancias, o todas las longitudes de los caminos más cortos, respecto de todos los demás puntos, tendremos una idea de cercanía o lejanía de ese punto respecto de la red. En este caso, la cercanía se define como el inverso de ese valor, como puede leerse en este enlace.

Lógicamente cuanto menor es la distancia de un punto de la red, el inverso de ese valor, su cercanía, es mayor. Y caso contrario, cuanto mayor es la distancia, su cercanía es menor. Siendo el hecho de si la red está dirigida o no lo está, muy importante, puesto que la distancia entre dos puntos podría ser simétrica o no serlo. Si está dirigida, es decir, si la distancia no es simétrica, entonces el concepto de cercanía, es mucho más importante.

> clo1 <- as.data.frame(round(igraph::closeness(g1),3))

> rownames(clo1) <- colnames(mat)

> ggplot(as.data.frame(clo1[,1]),aes(rownames(clo1))) + geom_bar(aes(weight=clo1,fill=clo1 )) + coord_flip()

Análisis de redes

Cercanía a la red de todas y cada una de las personas

 

También podemos establecer una métrica al estilo del algoritmo “page-rank” de Google, en donde se mide la importancia del nodo en la red examinando cuáles son los nodos muy conectados que están conectados con otros nodos muy conectados, llamado también Eigencentrality  porque utiliza los eigenvalores de los nodos para medir dicha influencia en la red.

> ev1 <- as.data.frame(round(eigen_centrality(g1)$vector,3))

> rownames(ev1) <- colnames(mat)

> ggplot(as.data.frame(ev1[,1]),aes(rownames(ev1))) + geom_bar(aes(weight=ev1,fill=ev1 )) + coord_flip()

Análisis de redes

Importancia de los contactos de todas y cada una de las personas

También, pero esta vez tratando las relaciones y no los nodos, podemos medir la importancia de la intermediación de cada relación en la red, mostrar en este caso las 6 más importantes. En este ejemplo, la más importante de todas, entre las personas 10 y 7, es un solo correo que sirve para unir dos subgrupos del equipo que parecen estar “un poco incomunicados”, como puede verse en el gráfico 2.

Análisis de redes

En este caso podemos crear una subred con las relaciones más importantes.

g3 <- subgraph.edges(g1, which(edge_betweenness(g1)>10))

plot(g3,edge.width=2)

Análisis de redes

Subred con las relaciones más importantes

 

El concepto de restricción se basa en la calidad de información que un nodo puede recibir y nos explicamos, si dos nodos tienen fuertes relaciones, entonces es muy probable que compartan muchos contactos y muchas de sus relaciones con terceros sean semejantes, por lo que lo más probable es que reciban el mismo tipo de información. Caso contrario, si las relaciones son débiles, es menos probable que reciban el mismo tipo de información, por lo que pueden estar mejor informadas de temas variados. Este índice en concreto, refleja ese valor de la variedad del tipo de información que pudiera recibirse. Este concepto puede ampliarse en este enlace.

> con1 <- as.data.frame(round(igraph::constraint(g1),3))

> rownames(con1) <- colnames(mat)

> ggplot(as.data.frame(con1[,1]),aes(rownames(con1))) + geom_bar(aes(weight=con1,fill=con1 )) + coord_flip()

Análisis de redes

Calidad de la información que puede disponer todas y cada una de las personas de la red

Un concepto más sencillo es ver la densidad de la red media como el cociente entre relaciones reales y relaciones posibles, lo que nos da una idea del grado de comunicación y de la calidad de las relaciones internas.

> graph.density(g1)

[1] 0.3516484

En un análisis más visual podemos detectar los llamados “grupitos” que se pueden formar dentro de un equipo de trabajo, tanto para bien como para mal, y a los que hay que encontrar un sentido.

> com <- edge.betweenness.community(g1)

> V(g1)$memb <- com$membership

> plot(com, g1)

 

Análisis de redes

Gráfico de la red total con los “grupitos” de trabajo que se forman

 

También podemos dibujar en el gráfico cualquier resultado de todos los indicadores que hemos calculado. En este caso, vamos a estudiar el resultado de la calidad de la información que puede tener cada nodo

> con <- round(constraint(g1),1)

> con <- paste(get.vertex.attribute(g1)$name,”-“,con)

> plot(g1, vertex.label=con,edge.width=2)

Análisis de redes

Gráfico de la red total indicando la calidad de información que tiene cada nodo

 

Ahora podemos juntar los resultados más importantes de los nodos en un único data-frame y analizar los nodos en su conjunto, para ver si se corresponden con el rendimiento esperado del equipo.

todo1 <- cbind(bet1,clo1,ev1,con1)

colnames(todo1) <- c(‘intermedio’,’cercano’,’contactos’,’informacion’)

ggplot(data=todo1,aes(x=intermedio,y=cercano))+ geom_text(aes(label=rownames(todo1),color=informacion,size=contactos))

Análisis de redes

Gráfico que estudia las 4 dimensiones. La capacidad de intermediación en el eje “x”, la cercanía a la red en el eje”y”, la calidad de la información recibida por medio del color azul, y la calidad de los contactos por medio del tamaño de la letra de texto

 

Para terminar, sólo decir que con estas órdenes podemos extraer los datos de la red para realizar otros estudios

> g1.v <- get.data.frame(g1, what = “vertices”)

> g1.e <- get.data.frame(g1, what = “edges”)

Autor: Pedro José Jiménez, profesor del Máster en Big Data y Business Intelligence

Máster en Big Data y Business Intelligence

EADIC - Cursos y Master para Ingenieros y Arquitectos
EADIC Blog