Flashear Firmware para PSAS CP400i (D3327-A1x)
Proyecto nuevo, servidor nuevo, discos nuevos, controladora nueva… Eso es algo que siempre hace ilusión poner en marcha. Lo que no hace tanta ilusión es que conectes la controladora por PCI y esta no funcione. Intentas tirar del fabricante, pero al final acabas del revés porque el éste no ha especificado con detalle como poder hacerlo o da por sentado que tienes un software para logarlo, el cual nunca has oído hablar y no tienes en tu poder. Este es un caso muy concreto que me ha ocurrido a mi, pero como sé perfectamente que dentro de 6 meses no me voy a acordar de la magia que hice en su día, así que aprovecho y lo comparto con vosotros por si os fuera de utilidad.
Cómo hacerlo
1. Descargar la utilidad sas3flash
En mi caso, lo hice desde esta web de Broadcom, y elegí el archivo SAS3FLASH_P15.
2. Descarga el controlador
Hazlo siempre desde la web oficial, para mitigar riesgos. En este caso, Fujitsu siempre te pide el número de serie para identificar el producto y descargar el controlador correcto.
https://support.ts.fujitsu.com/IndexDownload.asp
El controlador que utilicé yo contenía tres binarios, uno para firware, otro para la BIOS y otro para EFI.
3. Ejecuta la utilidad sas3flash
El comando a utilizar es el siguiente:
sas3flash -f lx4hbaG0.fw -b b83700.rom -b e180001.rom
Si es necesario, deberéis poner la ruta absoluta a los archivos .fw y .rom a la hora de ejecutar el comando.
4. Reinicia
Es obligatorio un reinicio inmediato de la máquina una vez se ha realizado correctamente el flasheo de la máquina.
Y ya estaría. Problema resuelto!
Reverse Proxy con NGINX + Docker
Hoy os traigo una serie de ficheros de configuración que estoy encantada de dejar como parte de este cajón de sastre. Se trata de una serie de archivos (Dockerfile, arhicvos .conf, etc) que quiero compartir con vosotros para crear en pocos pasos una imagen de NGINX que funcione como reverse proxy en local.
Mi Directorio
raiz |__>nginx | |__> conf.d | | |__> test.domain.com.conf | |__> ssl | | |__> tls.crt | | |__> tls.key | |___> nginx.conf |__> Dockerfile |__> docker.compose.yml
test.domain.com.conf
server {
listen 80;
listen 443 ssl http2;
listen [::]:80;
listen [::]:443 ssl http2;
server_name test.domain.com;
location / {
proxy_pass http://[IP]:[PORT];
}
error_page 404 /404.html;
location = /40x.html {
}
error_page 500 502 503 504 /50x.html;
location = /50x.html {
}
}
nginx.conf
user www-data; worker_processes auto; pid /run/nginx.pid; include /etc/nginx/modules-enabled/*.conf; events { worker_connections 768; # multi_accept on; } http { ## # Basic Settings ## sendfile on; tcp_nopush on; tcp_nodelay on; keepalive_timeout 65; types_hash_max_size 2048; client_max_body_size 100M; # server_tokens off; # server_names_hash_bucket_size 64; # server_name_in_redirect off; include /etc/nginx/mime.types; default_type application/octet-stream; ## # SSL Settings ## # ssl on; ssl_protocols TLSv1 TLSv1.1 TLSv1.2; # Dropping SSLv3, ref: POODLE ssl_prefer_server_ciphers on; ssl_certificate /etc/nginx/ssl/tls.crt; ssl_certificate_key /etc/nginx/ssl/tls.key; ## # Logging Settings ## access_log /var/log/nginx/access.log; error_log /var/log/nginx/error.log; ## # Gzip Settings ## gzip on; gzip_vary on; gzip_proxied any; gzip_comp_level 6; gzip_buffers 16 8k; gzip_http_version 1.1; gzip_types text/plain text/css application/json application/javascript text/xml application/xml application/xml+rss text/javascript; ## # Virtual Host Configs ## include /etc/nginx/conf.d/*.conf; include /etc/nginx/sites-enabled/*; } #mail { # # See sample authentication script at: # # http://wiki.nginx.org/ImapAuthenticateWithApachePhpScript # # # auth_http localhost/auth.php; # # pop3_capabilities "TOP" "USER"; # # imap_capabilities "IMAP4rev1" "UIDPLUS"; # # server { # listen localhost:110; # protocol pop3; # proxy on; # } # # server { # listen localhost:143; # protocol imap; # proxy on; # } #}
Dockerfile
FROM nginx
COPY ./nginx/ /etc/nginx/
docker-compose.yml
version: '3.4'
services:
nginx:
build:
context: .
dockerfile: Dockerfile
ports:
- 80:80
- 443:443
Problema resuelto!
Programar encendido/apagado de VM en GCE
Google Cloud tiene una solución para cada necesidad. Entre las muchas cosas que se pueden hacer, os hoy dejo un mini tutorial de como hacer que las instancias de VM se enciendan y se paren según la programación que nosotros le definamos.
1. Requisitos previos
- Instancia/s de VM. Puedes ver aquí como crear una nueva instancia de VM.
- Etiquetas en esa instancia/s.
Para esta documentación, utilizaremos la etiqueta schedule:l-v.
2. Crear Cloud Functions con Cloud Pub/Sub
2.1. Crear la función de inicio.
- Ve a la página de Cloud Functions en GCP Console.
Ir a la página de Cloud Functions - Haz clic en Crear función.
- Configura el Nombre como startInstancePubSub.
- Deja el valor predeterminado en Memoria asignada.
- En Activador, selecciona Cloud Pub/Sub.
- En Tema, selecciona Create new topic…
- Aparecerá un cuadro de diálogo Nuevo tema pub/sub.
- En Nombre, ingresa start-instance-event.
- Haz clic en Crear para finalizar el cuadro de diálogo.
- En Entorno de ejecución, selecciona Node.js 10.
- Sobre el bloque de texto del código, selecciona la pestaña index.js.
- Reemplaza el código de inicio con lo siguiente:functions/scheduleinstance/index.js
const Compute = require('@google-cloud/compute');
const compute = new Compute();
exports.startInstancePubSub = async (event, context, callback) => {
try {
const payload = _validatePayload(
JSON.parse(Buffer.from(event.data, 'base64').toString())
);
const options = {filter: `labels.${payload.label}`};
const [vms] = await compute.getVMs(options);
await Promise.all(
vms.map(async instance => {
if (payload.zone === instance.zone.id) {
const [operation] = await compute
.zone(payload.zone)
.vm(instance.name)
.start();
// Operation pending
return operation.promise();
}
})
);
const message = `Successfully started instance(s)`;
console.log(message);
callback(null, message);
} catch (err) {
console.log(err);
callback(err);
}
};
const _validatePayload = payload => {
if (!payload.zone) {
throw new Error(`Attribute 'zone' missing from payload`);
} else if (!payload.label) {
throw new Error(`Attribute 'label' missing from payload`);
}
return payload;
};
11. Sobre el bloque de texto del código, selecciona la pestaña package.json.
12. Reemplaza el código de inicio con lo siguiente:functions/scheduleinstance/package.json
{
"name": "cloud-functions-schedule-instance",
"version": "0.1.0",
"private": true,
"license": "Apache-2.0",
"author": "Google Inc.",
"repository": {
"type": "git",
"url": "https://github.com/GoogleCloudPlatform/nodejs-docs-samples.git"
},
"engines": {
"node": ">=8.0.0"
},
"scripts": {
"test": "mocha test/*.test.js --timeout=20000"
},
"devDependencies": {
"@google-cloud/nodejs-repo-tools": "^3.3.0",
"mocha": "^6.0.0",
"proxyquire": "^2.0.0",
"sinon": "^7.0.0"
},
"dependencies": {
"@google-cloud/compute": "^1.0.0"
}
}
En Función a ejecutar, ingresa startInstancePubSub.
Haz clic en Crear.
2.2. Crear la función de detención
- Debes estar en la página de Cloud Functions en GCP Console.
- Haz clic en Crear función.
- Configura el Nombre como stopInstancePubSub.
- Deja el valor predeterminado en Memoria asignada.
- En Activador, selecciona Cloud Pub/Sub.
- En Tema, selecciona Create new topic…
- Aparecerá un cuadro de diálogo Nuevo tema pub/sub.
- En Nombre, ingresa stop-instance-event.
- Haz clic en Crear para finalizar el cuadro de diálogo.
- En Entorno de ejecución, selecciona Node.js 10.
- Sobre el bloque de texto del código, selecciona la pestaña index.js.
- Reemplaza el código de inicio con lo siguiente: functions/scheduleinstance/index.js
const Compute = require('@google-cloud/compute');
const compute = new Compute();
exports.stopInstancePubSub = async (event, context, callback) => {
try {
const payload = _validatePayload(
JSON.parse(Buffer.from(event.data, 'base64').toString())
);
const options = {filter: `labels.${payload.label}`};
const [vms] = await compute.getVMs(options);
await Promise.all(
vms.map(async instance => {
if (payload.zone === instance.zone.id) {
const [operation] = await compute
.zone(payload.zone)
.vm(instance.name)
.stop();
// Operation pending
return operation.promise();
} else {
return Promise.resolve();
}
})
);
const message = `Successfully stopped instance(s)`;
console.log(message);
callback(null, message);
} catch (err) {
console.log(err);
callback(err);
}
};
const _validatePayload = payload => {
if (!payload.zone) {
throw new Error(`Attribute 'zone' missing from payload`);
} else if (!payload.label) {
throw new Error(`Attribute 'label' missing from payload`);
}
return payload;
};
11. Sobre el bloque de texto del código, selecciona la pestaña package.json.
12. Reemplaza el código de inicio con lo siguiente: functions/scheduleinstance/package.json
{
"name": "cloud-functions-schedule-instance",
"version": "0.1.0",
"private": true,
"license": "Apache-2.0",
"author": "Google Inc.",
"repository": {
"type": "git",
"url": "https://github.com/GoogleCloudPlatform/nodejs-docs-samples.git"
},
"engines": {
"node": ">=8.0.0"
},
"scripts": {
"test": "mocha test/*.test.js --timeout=20000"
},
"devDependencies": {
"@google-cloud/nodejs-repo-tools": "^3.3.0",
"mocha": "^6.0.0",
"proxyquire": "^2.0.0",
"sinon": "^7.0.0"
},
"dependencies": {
"@google-cloud/compute": "^1.0.0"
}
}
13. En Función a ejecutar, ingresa stopInstancePubSub.
14. Haz clic en Crear.
3. Verifica que tus funciones actúen correctamente
3.1. Detén la instancia
- Ve a la página de Cloud Functions en GCP Console.
Ir a la página de Cloud Functions - Haz clic en la función denominada stopInstancePubSub.
- Deberías ver algunas pestañas: General, Activador, Fuente, y Prueba. Haz clic en la pestaña Prueba.
- Para Evento de activación, ingresa lo siguiente:
1
{"data":"eyJ6b25lIjoiZXVyb3BlLXdlc3QxLWIiLCJsYWJlbCI6InNjaGVkdWxlOmwtdiJ9"}
- Esto es simplemente una string codificada en base64 que contiene la siguiente información: {«zone»:»europe-west1-b»,»label»:»schedule:l-v»}
- Si deseas codificar tu propia string, puedes usar cualquier herramienta de codificación en base64 en línea.
- Haz clic en el botón Probar la función.
- Cuando haya terminado de ejecutarse, deberías ver el texto Successfully stopped instance dev-app-01-instance debajo de Resultado. La ejecución puede tardar hasta 60 segundos en completarse.
- Ve a la página Instancias de VM en GCP Console.
Ir a la página Instancias de VM - Verifica que la instancia denominada dev-app-01 tenga un recuadro gris junto a su nombre. Esto indica que se detuvo. Puede tardar hasta 30 segundos en terminar de desactivarse.
- Si parece que no va a finalizar, prueba hacer clic en Actualizar en la parte superior de la página.
3.2. Inicia la instancia
- Ve a la página de Cloud Functions en GCP Console.
Ir a la página de Cloud Functions - Haz clic en la función denominada startInstancePubSub.
- Deberías ver algunas pestañas: General, Activador, Fuente, y Prueba. Haz clic en la pestaña Prueba.
- Para Evento de activación, ingresa lo siguiente:
1
{"data":"eyJ6b25lIjoiZXVyb3BlLXdlc3QxLWIiLCJsYWJlbCI6InNjaGVkdWxlOmwtdiJ9"}
- Nuevamente, esto es simplemente la string codificada en base64 para {«zone»:»europe-west1-b»,»label»:»schedule:l-v»}
- Haz clic en el botón Probar la función.
- Cuando haya terminado de ejecutarse, deberías ver el texto Successfully started instance workday-instance debajo de Resultado.
- Ve a la página Instancias de VM en GCP Console.
Ir a la página Instancias de VM - Verifica que la instancia denominada dev-app-01 tenga una marca de verificación verde junto a su nombre. Esto indica que se está ejecutando. Puede tardar hasta 30 segundos en terminar de iniciarse.
4. Configurar los trabajos de Cloud Scheduler para llamar a Cloud Pub/Sub
Nota: La programación se especifica con el formato cron para UNIX. Ejemplos: Cada minuto «* * * * *»; cada 3 horas «0 */3 * * *»; todos los lunes a las 9:00 «0 9 * * 1». Más información
4.1. Crea el trabajo de inicio
- Ve a la página de Cloud Scheduler en GCP Console.
Ir a la página de Cloud Scheduler - Haz clic en Crear trabajo.
- Configura el Nombre como startup-l-v-instance.
- En Frecuencia, ingresa 0 6 * * 1-5.
- En Zona horaria, selecciona el país y la zona horaria que desees. En este ejemplo, usaremos United States y Los Angeles.
- En Destino, selecciona Pub/Sub.
- En Tema, ingresa start-instance-event.
- En Carga útil, ingresa lo siguiente:
1
{"zone":"europe-west1-b","label":"schedule:l-v"}
- Haz clic en Crear.
4.2. Crea el trabajo de detención.
- Debes estar en la página de Cloud Functions en GCP Console.
- Haz clic en Crear trabajo.
- Configura el Nombre como shutdown-l-v-instance.
- En Frecuencia, ingresa 0 21 * * 1-5.
- En Zona horaria, selecciona el país y la zona horaria que desees. En este ejemplo, usaremos United States y Los Angeles.
- En Destino, selecciona Pub/Sub.
- En Tema, ingresa stop-instance-event.
- En Carga útil, ingresa lo siguiente:
1
{"zone":"europe-west1-b","label":"schedule:l-v"}
- Haz clic en Crear.
5. Verifica que los trabajos funcionen
5.1. Detén la instancia
- Ve a la página de Cloud Scheduler en GCP Console.
Ir a la página de Cloud Scheduler - En el trabajo denominado shutdown-l-v-instance, haz clic en el botón Ejecutar ahora en el extremo derecho de la página.
- Ve a la página Instancias de VM en GCP Console.
Ir a la página Instancias de VM - Verifica que la instancia denominada app-dev-01-instance tenga un recuadro gris junto a su nombre. Esto indica que se detuvo. Puede tomar hasta 30 segundos para que termine de desactivarse.
5.2. Inicia la instancia
- Ve a la página de Cloud Scheduler en GCP Console.
Ir a la página de Cloud Scheduler - En el trabajo denominado startup-l-v-instance, haz clic en el botón Ejecutar ahora en el extremo derecho de la página.
- Ve a la página Instancias de VM en GCP Console.
Ir a la página Instancias de VM - Verifica que la instancia denominada dev-app-01-instance tenga una marca de verificación verde junto a su nombre. Esto indica que se está ejecutando. Puede tardar hasta 30 segundos para que termine de iniciarse.
Problema resuelto!
Subir imágenes al Container Registry de GCP
No es nada complicado, pero es importante que hay tres maneras diferentes de subir una imágen al repositorio de GCP.
Dockerfile
1. Crea o descarga un fichero Dockerfile
Con tu editor de texto favorito, o bien descargado de Dockerhub, sitúa el fichero Dockerfile en la carpeta que quieras.
2. Compila la imagen con Dockerfile
Cloud Build te permite compilar una imagen de Docker mediante un Dockerfile. No necesitas un archivo de configuración de compilación diferente.
Ejecuta el comando siguiente desde el directorio que contiene quickstart.sh y Dockerfile, en el que [PROJECT_ID] es tu ID del proyecto de GCP:
gcloud builds submit --tag gcr.io/[PROJECT_ID]/[IMAGE_NAME] .
Ejemplo:
gcloud builds submit --tag gcr.io/tg-gcp-project/rabbitmq .
YAML
- Crea un Dockerfile con la información que necesites.
- En el mismo directorio que contiene Dockerfile, crea un archivo llamado cloudbuild.yaml con los contenidos siguientes. Este archivo es tu archivo de configuración de compilación. A la hora de la compilación, Cloud Build reemplaza $PROJECT_ID con tu ID del proyecto de manera automática.
steps:
name: 'gcr.io/cloud-builders/docker'
args: [ 'build', '-t', 'gcr.io/$PROJECT_ID/rabbitmq2', '.' ]
images: 'gcr.io/$PROJECT_ID/rabbitmq2'
3. Comienza la compilación con la ejecución del comando siguiente:1 gcloud builds submit --config cloudbuild.yaml .
Nota
No omitas el «.» al final del comando anterior. Con “.”, se especifica que el código fuente se encuentra en el directorio de trabajo actual al momento de la compilación.
Imagen Local
Etiqueta la imagen local con el nombre del registro mediante el siguiente comando:
docker tag [SOURCE_IMAGE] [HOSTNAME]/[PROJECT-ID]/[IMAGE]
Envía la imagen etiquetada a Container Registry con el siguiente comando:
docker push [HOSTNAME]/[PROJECT-ID]/[IMAGE]
docker push [HOSTNAME]/[PROJECT-ID]/[IMAGE]:[TAG]
Problema resuelto!
Alertas Útiles en Google Cloud Platform
Intro
Me gustaría empezar esta entrada con un síntoma que he sufrido bastante en las empresas donde he tenido el placer de trabajar:
El Día a Día Me Come (DDMC)
Fransu Rondán
Se podría aplicar en muchos aspectos, tanto personales como profesionales. Pero hoy me gustaría hacer hincapié en esa gran aliada, apenas utilizada en las infraestructuras de sistemas: La monitorización.
Da igual como se llame la herramienta: Stackdriver, Zabbix, Nagios… Es una inversión de tiempo que se recupera a corto plazo. Lo importante es tenerla, configurarla y hacerle caso.
Ventajas
- Detección e identificación temprana de problemas.
- Ejecución de acciones preventivas.
- Alertas y notificación de las incidencias.
- Generación de informes de rendimiento y seguridad.
- Capacidad para optimizar recursos.
¿Qué monitorizar?
En esta entrada no vamos a centrar en los indicadores del rendimiento (KPI) de VM y de contenedores de Kubernetes, en concreto la RAM y CPU, puesto que Google Cloud Platform es una plataforma demasiado flexible para detallarlo todo.
Memoria
Instancias de máquina virtual
Nombre del recurso | VM Instance |
Etiqueta del recurso en la consulta | gce_instance |
Nombre de la métrica: | Memory utilization |
Descripción de la métrica: | Tamaño en bytes de memoria usada obtenida utilizando el agente de stackdriver. |
Etiqueta de la métrica en la consulta: | agent.googleapis.com/memory/percent_used |
Tipos de memoria disponibles para la monitorización: | buffered cached free slab1 used |
Nombre del recurso | VM Instance |
Etiqueta del recurso en la consulta | gce_instance |
Nombre de la métrica: | VM Memory Used |
Descripción de la métrica: | Memoria actual usada en la VM. Solo disponible para las VM de la familia e2. |
Etiqueta de la métrica en la consulta: | compute.googleapis.com/instance/memory/balloon/ram_used |
Tipos de memoria disponibles para la monitorización: | buffered cached free slab1 used |
Kubernetes
Nombre del recurso | GKE Container |
Etiqueta del recurso en la consulta | k8s_container |
Nombre de la métrica: | Memory Usage |
Descripción de la métrica: | Uso de memoria en bytes |
Etiqueta de la métrica en la consulta: | kubernetes.io/container/memory/used_bytes |
Tipos de memoria disponibles para la monitorización: | evitable: Fácilmente reclamada por el kernel non-evitable: No fácilmente reclamada por el kernel |
CPU
INSTANCIAS DE MÁQUINA VIRTUAL
Nombre del recurso | VM Instance |
Etiqueta del recurso en la consulta | gce_instance |
Nombre de la métrica: | CPU utilization |
Descripción de la métrica: | Porcentaje de CPU usado obtenido utilizando el agente de stackdriver. |
Etiqueta de la métrica en la consulta: | agent.googleapis.com/cpu/utilization |
Estados de CPU disponibles para la monitorización: | idle: Cuando no lo está usando ningún programa. interrupt: Señales enviadas por dispositivos externos a la CPU para detener las actividades actuales. nice: Tiempo dedicado a ejecutar procesos con buen valor positivo. softirq: Cuando se ejecuta un controlador de interrupciones o una función diferible. steal: Tiempo que una CPU virtual espera una CPU real mientras el hipervisor está dando servicio a otro procesador. system: CPU utilizada por el sistema user: CPU utilizada por el usuario wait: cantidad de tiempo que una tarea tiene que esperar para acceder a los recursos de la CPU |
Hay muchos tipos de memoria, y todos deberían ser monitorizados. Sin embargo, considero que lo más fácil sería monitorizar que siempre tengamos un porcentaje libre de idle. No sabremos que tipo de memoria exactamente está dando el problema, pero detectaremos que algo está ocurriendo y podremos tomar medidas.
Podríamos configurar alertas, por ejemplo, que detectaran cuando la memoria idle disponible es inferior al 30% durante 1h.
Nombre del recurso | VM Instance |
Etiqueta del recurso en la consulta | gce_instance |
Nombre de la métrica: | CPU utilization |
Descripción de la métrica: | Utilización fraccionada de la CPU asignada. Los valores son típicamente números entre 0.0 y 1.0. Los gráficos muestran los valores como un porcentaje entre 0% y 100% |
Etiqueta de la métrica en la consulta: | compute.googleapis.com/instance/cpu/utilization |
Valores de CPU disponibles para la monitorización: | cpu/utilization |
Kubernetes
Debido a la forma de funcionar y a la lógica de Kubernetes, GCP no nos proporciona para los contenedores un parámetro utilization como pasaba con las máquinas virtuales. En su lugar nos ofrece los siguientes parámetros:
- kubernetes.io/container/cpu/core_usage_time
- kubernetes.io/container/cpu/limit_cores
- kubernetes.io/container/cpu/limit_utilization
- kubernetes.io/container/cpu/request_cores
- kubernetes.io/container/cpu/request_utilization
Sin embargo, si queremos saber el uso de CPU, los clusters de GKE al final son maquinas virtuales en el entorno de GCE. Para evitarnos sustos, siempre es recomendable tener el cluster monitorizado como una máquina más.
Discos / Volumenes
Instancias de máquina virtual
Nombre del recurso | VM Instance |
Etiqueta del recurso en la consulta | gce_instance |
Nombre de la métrica: | Disk usage |
Descripción de la métrica: | Disco usado en bytes obtenido utilizando el agente de stackdriver. Solo para VM Linux. |
Etiqueta de la métrica en la consulta: | agent.googleapis.com/disk/bytes_used |
Tipo de uso: | free reserved used |
Nombre del recurso | VM Instance |
Etiqueta del recurso en la consulta | gce_instance |
Nombre de la métrica: | Disk usage in Bytes |
Descripción de la métrica: | Disco usado en bytes. |
Etiqueta de la métrica en la consulta: | compute.googleapis.com/guest/disk/bytes_used |
Valores de CPU disponibles para la monitorización: | cpu/utilization |
Filtros:
- resource.namespace_name
- resource.container_name
- metric.memory_type:
- Values:
evictable
: It is memory that can be easily reclaimed by the kernelnon-evictable
. , Is memory that can not be easily reclamied by the kernel.
- Values:
Chuleta – Pipeline para Jenkins
En mi día a día, trabajo bastante con Jenkins. Nada del otro universo, una maquinita local, corriendo jenkins, vinculada con gcloud y cuenta de servicio. Tengo toda la potencia del bash de unix y la versatilidad de Jenkins como CI.
pipeline { agent any environment { STAGE_NAME_BB = "" SRC_PATH="[local_src_path]" #Ruta donde deberá encontrarse el proyecto GIT que debe ser compilado. SCRIPTS_PATH="[scripts_path]" #Ruta donde se almacena el script para eliminar las imágenes antiguas NAMESPACE="[k8_namespace]" K8_OBJ="[workload_type]/[workload_name]" CONTAINER="[container_name]" IMAGE="[src_image]" } stages { stage("Compile Code"){ steps { notifyBuild("STARTED") script{ STAGE_NAME_BB = "Compile Code" } echo "Building..." sh "Comandos a ejecutar para la compilación del código" } } stage("Unit Testing"){ steps { script{ STAGE_NAME_BB = "Unit testing" } echo "En este apartado puedes configurar los test para tu código" } } stage("Image Push & Tag into Container Registry"){ steps { script{ STAGE_NAME_BB = "Image Push & Tag into Container Registry" } echo "# Subir la imagen al container registry..." sh "cd ${SRC_PATH} && mvn jib:build -Djib.to.image=${IMAGE}:${BUILD_NUMBER}" echo "# Agregar la etiqueta latest a la imagen que acabamos de subir" sh "cd ${SRC_PATH} && gcloud container images add-tag ${IMAGE}:${BUILD_NUMBER} ${IMAGE}:latest --quiet" } } stage("Deploying Image into its Kubernetes Container"){ steps { script{ STAGE_NAME_BB = "Deploying Image into its Kubernetes Container" } echo "# Connecting to dev cluster" sh "gcloud container clusters get-credentials [cluster-name] --zone [cluster-zone] --project [project-name]" echo "# Configurar la nueva imagen como la ultima imagen de la carga de trabajo especificada" sh "cd ${SRC_PATH} && kubectl set image ${K8_OBJ} ${CONTAINER}=${IMAGE}:${BUILD_NUMBER} --record -n ${NAMESPACE}" } } stage("Delete Container Registry Old Images"){ steps { script{ STAGE_NAME_BB = "Delete Container Registry Old Images" } echo "# Deleting old images" echo "# Para mas detalles de este script, podéis consultar esta entrada" sh "cd ${SCRIPTS_PATH} && ./delete_old_images.sh ${IMAGE}" } } } post { success { notifyBuild("SUCCESSFUL") } failure { notifyBuild("FAILED ${STAGE_NAME_BB}") } } } def notifyBuild(String buildStatus = 'STARTED') { // build status of null means successful buildStatus = buildStatus ?: 'SUCCESSFUL' // Default values def colorName = 'RED' def colorCode = '#FF0000' def subject = "${buildStatus}: Job '${env.JOB_NAME} [${env.BUILD_NUMBER}]'" def summary = "${subject} (${env.BUILD_URL})" // Override default values based on build status if (buildStatus == 'STARTED'){ color = 'YELLOW' colorCode = '#FFFF00' summary = "${subject} (${env.BUILD_URL})" } else if (buildStatus == 'SUCCESSFUL') { color = 'GREEN' colorCode = '#00FF00' } }
Problema resuelto!
Buenas prácticas: ¿Almacenaje cloud o NAS?
Estás a punto de guardar un documento pero no estás seguro donde debería estar guardado. ¿Lo guardas en el cloud o lo guardas en la NAS?
Tanto Cloud (OneDrive, Google Cloud) como la NAS son dos servicios de almacenamiento de archivos. Ambos son medios son complementarios entre sí dentro del lugar de trabajo, pero hay ciertos casos en los que es mejor usar uno u otro. Depende de la situación.
Tradicionalmente, los mejores casos para usar Cloud son cuando:
- Necesitas compartir un archivo/carpeta con externos a la organización.
- Es un archivo “vivo”. Se edita y modifica con frecuencia.
- Necesitas realizar trabajo colaborativo simultáneo sobre el archivo con otro compañer@.
- Es un archivo que solo lo vas a usar tu.
Los mejores casos para usar la NAS son cuando:
- No necesitas trabajo colaborativo
- Es un archivo “estático”, que sufre pocos o ningún cambio a lo largo del tiempo.
- Tiene que estar en un repositorio común para todos los miembros del equipo.
Problema resuelto!