ID: 28518
Creador: VIDAL I CANET, JOSEP LLUIS
URL: https://mmedia.uv.es/html5/u/vi/vijo/28518_intro_cgi_zos.mp4
Código de inserción:
<video poster="https://mmedia.uv.es/g?user=vijo&path=/prac_CGI_zos/&name=intro_cgi_zos.mp4&resource_id=28518" controls="" autoplay="" autobuffer="" controlslist="nodownload">
<source src="https://mmedia.uv.es/html5/u/vi/vijo/28518_intro_cgi_zos.mp4" type="video/mp4">
</video>
Categoría: Sin categorizar
Clasificación Unesco: Sin categorizar
Descripción: Aprender a crear CGIs en z/os que sean capaces de consultar información de datasources que residen en z/os(DB2 y DATASETS).
Etiquetas:
Resolucion: 928 x 1018
unknown
Puntuación: Sense puntuacio (puntuar).
Licencia CC: No asignada
Visitas: 826
Finally, we compare rows from the table that was been modified while source DB2 was clonned. Josep Vidal - System Programmer. For more questions you can reach me at: josepvidalcanet@gmail.com .
Una vez tenemos instalado el nucleo del sistema operativo, procedemos a instalar las utilidades estándar del sistema (ssh server, etc ...).
2.- Configuración reverse proxy pound: Fichero /etc/default/pound: cambiar el parámetro startup a 1 (startup=1) Fichero /etc/pound/pound: Cambiar la directiva ListenHttp para que la IP y el puerto en el que escucha el reverse proxy sean la 10.1.1.2 y el 80 respectivamente: ListenHTTP Address 10.1.1.2 Port 80 y y añadir los dos servidores http backends (p390 y zeus) al servicio de balanceo: Service BackEnd Address 147.156.200.61 Port 80 End BackEnd Address 129.35.161.134 Port 80 End End Finalmente procedemos a levantar el servicio de balanceo con el comando: /etc/init.d/pound start
En este paso vamos a configurar los volumenes que utilizaremos para el root file system de la debian s390 y el volumen para la paginación del sistema.
First of all, we execute REXX code to simulate DB workload. This workload consist in inserting on row per second in table sysadm.prv. Second, we stop TARGET (/-DBF STOP DB2) and delete all its datasets except the TARGET SDSN libraries and installation jobs . Finally, we proceed to COPY SOURCE datasets to TARGET DB2, while renaming HLQ (High Level Qualifier). The JCL that implements this is called CPYREN and is executed while source DB is up and running.