Diferencia entre revisiones de «Mapuche»
(→Funcionamiento) |
|||
(No se muestran 180 ediciones intermedias de 5 usuarios) | |||
Línea 1: | Línea 1: | ||
+ | [[Instalación Mapuche|Instalación de aplicaciones para Mapuche]] | ||
+ | |||
+ | [[Usuario SIU-Mapuche]] | ||
+ | |||
+ | [[Estructura Escritorio SIU-Mapuche]] | ||
+ | |||
+ | [[Documentacion Mapuche]] | ||
+ | |||
Primeras pruebas con el Sistema Mapuche | Primeras pruebas con el Sistema Mapuche | ||
+ | |||
+ | ==2013/04== | ||
+ | Caracteristicas del servidor USO EXCLISVO | ||
+ | -Cpu Intel(R) Core(TM) i5 CPU 750 @ 2.67GHz | ||
+ | -Memoria 8GB ddr3 ( 1333 MHz) | ||
+ | -Disco del sistema operativo de 160GB sata | ||
+ | -Discos del raid 1+0 4 discos sata de 640 gb | ||
+ | -Datos de la instalacion de mapuche y postgres: | ||
+ | -sistema mapche en disco sata (junto con sistem aoperativo) | ||
+ | base de postgres en otros discos con con raid 1+0 sata (espejado+velocidad) con log | ||
+ | de la base en otro disco (el del sistema mapuche) | ||
+ | |||
+ | Sistema operativo | ||
+ | -Debian 5.0.8 | ||
+ | -Version de apache 2.2.9 | ||
+ | -Version de php 5.2.6-1 | ||
+ | -Version de postgres 8.3.13 | ||
+ | |||
+ | Version Mapuche | ||
+ | -1.18.0 | ||
+ | Mes Año Pampa | ||
+ | - 201209 | ||
=Migracion Mapuche= | =Migracion Mapuche= | ||
− | + | Pasos: | |
− | + | ||
− | + | 1- Reindexacion archivo cuentas Bancarias | |
− | + | ||
− | + | Consiste en restaurar el archivo dh92.dat (porque tiene los identificadores unicos en 0 por haber sido reimportado...esto renumero el id), desde el modulo utilidades de Pampa ir el menu Procesos-->Restaurar Archivos. Siempre hacer esto antes de generar CVS. | |
− | + | ||
− | + | 2- Arreglar errores frecuentes que se dan en la migracion, por incosnsistencias y/o diferencias en el funcionamiento de ambos sistema(Pampa vs. Mapuche) | |
− | + | ||
− | + | Para ello: | |
− | + | ||
+ | a) Crear una carpeta en T:\MAPUCHE\migracion que se llame AAAAMM | ||
+ | |||
+ | b) Copiar alli el archivo que esta en: | ||
+ | |||
+ | T:\MAPUCHE\migracion\errores_grales.txt | ||
+ | |||
+ | c) Ejecutar los scripts que estan en ese archivo y anotar debajo de cada consulta cuantos registros se modificaron luego de cada update. | ||
+ | |||
+ | 3- Arreglar en Pampa errores de Migracion del Mes anterior | ||
+ | |||
+ | Consiste en tomar los errores de la tabla migracion_borrados del esquema public en postgres en Mapuche del mes anterior y en base al detalle del error entrar a Pervasive en la coneccion con el Pampa central del mes actual y ejecutar consultas sql y update para modificar. Entrar a postgres desde 200.16.30.7/Pg | ||
+ | |||
+ | Consulta1: | ||
+ | Para saber en que tablas hubo errores | ||
+ | |||
+ | select distinct tabla from migracion_borrados | ||
+ | |||
+ | Consulta2: | ||
+ | Para arreglar los errores de cada tabla que tiro error (siempre escribir el nombre de la tabla en minuscula) | ||
+ | |||
+ | select* from migracion_borrados where tabla='dha1' | ||
+ | |||
+ | 4- Generacion cvs Pampa | ||
+ | |||
+ | 5- Revision Errores de Generacion CVS Pampa | ||
+ | |||
+ | Consiste en revisar el archivo exporta.txt (creado al generar CVS) y analizar lor errores que genera y si dio algun error arrgelarlo via Pervasive y volver a generar los CVSs de solo los archivos .dat que se tocaron. | ||
− | + | 7- Copiar los archivos CVS | |
− | |||
− | |||
− | |||
− | |||
− | + | *Copiar via explorador de archivos los CVS generados a T:\MAPUCHE\CVS\ | |
− | + | *Entrar x ftp al servidor donde trabajamos y de alli copiar los CVS generados a a la carpeta /lmanjarres/mapuche/POSTGRES/ | |
− | |||
− | |||
− | |||
− | + | 8- Preparar el entorno y migrar | |
− | + | Crear la Base | |
− | + | Crear usuario | |
+ | Crear el esquema siu | ||
− | + | 9- Ejecutar scripts de migracion | |
− | |||
− | + | *Ejecutar Migracion | |
− | + | *Ejecutar Tablas | |
+ | *Ejecutar Copy | ||
+ | *Ejecutar Funcion de Migracion | ||
+ | *Ejecutar Indices: psql siu –f Pampa_Indices.sql –o Migración_Resultados_paso4.txt –U pampa 2>err_paso4.txt | ||
− | === | + | =Instalacion Mapuche= |
− | + | ==Proceso de Instalacion== | |
− | + | *Copiar el instalador de mapuche al root del servidor (/var/www) y descomprimirlo o copiar la carpeta ya descomprimida. | |
− | * | + | *Ejecutar el instalador |
− | + | *Si la instalacion es completa seguir todos los pasos. | |
− | * | + | |
− | |||
− | = | + | =Servidores= |
− | + | 172.18.230.20 (SEIYA o 122 en 2ºPiso)- postgres 9.2 o 3 | |
− | + | 192.168.19.42 (Postgres 02 en 6ºPiso) - MV | |
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | + | - NO EXITE MAS - *192.168.10.137 (servidor de computos 2do piso). Datos para entrar a administrar el servidor--> passw: ******* | |
+ | - NO EXISTE MAS -*200.16.30.7 (servidor de computos en el 6to piso).Datos para entrar a administrar el servidor--> passw: ******* | ||
− | + | =Como ingresar a Mapuche= | |
− | + | ==Mapuche produccion== | |
− | + | En un navegador poner http://<ip_servidor>/siu/mapuche/ | |
− | + | *Usuario de Mapuche: mapuche | |
− | == | + | *Passw de Mapuche: ******* |
− | |||
− | |||
− | |||
− | |||
− | == | + | ==Mapuche migracion== |
− | + | En un navegador poner http://<ip_servidor>/siu_migracion/mapuche/ | |
− | * | + | *Usuario de Mapuche: mapuche |
− | + | *Passw de Mapuche: ******* | |
− | |||
− | * | ||
− | |||
− | |||
− | * | ||
− | |||
− | |||
− | * | ||
− | |||
− | |||
− | |||
− | |||
− | * | ||
− | + | =Errores= | |
− | + | ==Errores al ejecutar Migracion== | |
− | Errores generados hasta correr el PampaCoy.sql, antes de la funcion de la migracion | + | ===Errores generados hasta correr el PampaCoy.sql, antes de la funcion de la migracion==== |
*dh23: | *dh23: | ||
linea 36550, nro_liqui=846 tiene valor nulo en el campo codn_conce | linea 36550, nro_liqui=846 tiene valor nulo en el campo codn_conce | ||
Línea 96: | Línea 123: | ||
*dh41: Claves duplicadas (legajo, mes ano) | *dh41: Claves duplicadas (legajo, mes ano) | ||
*spu_vnci: Valor nulo en campo desc_abrev, linea 1 | *spu_vnci: Valor nulo en campo desc_abrev, linea 1 | ||
− | + | *spu_ipco: Valor nulo para campo ano_retro | |
− | |||
− | = | + | ===Errores de tabla migracion_borrados: datos del 09/2012 a la fecha 29/11/2012==== |
− | == | ||
*dh05: valores nulos en campo fec_desde | *dh05: valores nulos en campo fec_desde | ||
Detectar el error: | Detectar el error: | ||
Línea 110: | Línea 135: | ||
delete FROM pampa.dh05 | delete FROM pampa.dh05 | ||
where fec_desde is NULL | where fec_desde is NULL | ||
− | = | + | |
− | + | *dh16 | |
− | + | El error que tira en general es que hay un concepto que esta en dh16 y no esta en dh12 | |
− | + | ||
− | + | SELECT * FROM "DH16" where codn_conce not in (select codn_conce from dh12) | |
− | + | ||
− | + | SOLUCION: borrar de dh16 los conceptos que no estan en dh12 | |
+ | |||
+ | *dh23 | ||
+ | El error que tira en general es que hay un concepto que esta en dh23 y no esta en dh12 | ||
+ | |||
+ | SELECT * FROM "DH23" where codn_conce not in (select codn_conce from dh12) | ||
+ | |||
+ | SOLUCION: borrar de dh23 los conceptos que no estan en dh12 | ||
+ | |||
+ | *dha1 | ||
+ | Codigo de provincia+codigo postal+codigo repetidos tiene que estar en DHA4 (dha1::codigo_repetidos codigo_provincia codigo_postal -> dha4::codigo_repetidos codigo_provincia codigo_postal) | ||
+ | |||
+ | SOLUCION | ||
+ | Los errores saltan para cuando en dha1 el codigo_provincia='XX',codigo_postal=5000,codigo_repetidos='00', pero estan esos codigos en la tabla dha4. NO PUDIMOS DETECTAR COMO ARREGLAR EL ERROR | ||
+ | |||
+ | *dl15 | ||
+ | Error: dl15::nro_licencia -> dh05::nro_licencia (permite nulo: S) | ||
+ | |||
+ | El campo dl15.nro_licencia es un identificador unico. En los campos que tienen error es porque dl15.nro_licencia=0. Son los casos que se hace el calculo de LAO via Pampa, que genera una entrada en DL15 pero no genera bien ese campo. | ||
+ | |||
+ | SELECT * FROM "Dl15" where periodo=2011 and nro_licencia not in (select nro_licencia from dh05) | ||
+ | |||
+ | SELECT max(nro_licencia) FROM "Dl15" | ||
+ | |||
+ | SELECT * FROM "DL15" where nro_legajo=29978 | ||
+ | |||
+ | SELECT * FROM "DL15" where tipo_mov='CAL' AND NRO_LICENCIA IN (SELECT NRO_LICENCIA FROM DH05) ORDER BY NRO_LEGAJO | ||
+ | |||
+ | SOLUCION1= Aun no se si es una solucion valida (lo que hice fue poner algun nro_licencia ya existente en dh05) | ||
+ | |||
+ | SELECT fecha_mov,fecha_hasta,periodo,nro_liquidacion,nro_licencia FROM dl15 where nro_licencia=0 and tipo_mov='CAL' and observaciones='AJUSTE' | ||
+ | |||
+ | update dl15 set nro_licencia=139457 where nro_licencia=0 and tipo_mov='CAL' and observaciones='AJUSTE' | ||
+ | |||
+ | SOLUCION2=Tengo que probar si con esta solucion no salta el error luego de hecha la migracion. Pareceria ser la solucion mas viable porque en teoria cuando se hace el calculo de LAO se genera un registro en dl15 con el nro_licencia en nulo | ||
+ | |||
+ | update "DL15" set nro_licencia=null where nro_licencia=0 | ||
+ | |||
+ | *dh06 | ||
+ | |||
+ | ERROR: Hay codigo de titulo que estan en dh06 pero no estan en la tabla maestra de titulo dh33 | ||
+ | |||
+ | SOLUCION: Borrar en dh06 los titulos esos invalidos (entrando al Pampa y borrar a mano). Los legajos son: | ||
+ | |||
+ | -28354, codc_titul=TSD | ||
+ | -48520, codc_titul=LMAT | ||
+ | |||
+ | SELECT * FROM "DH06" where codc_titul not in (select codc_titul from dh33) | ||
+ | |||
+ | delete FROM "DH06" where codc_titul not in (select codc_titul from dh33) | ||
+ | |||
+ | ERROR: Hay codigo de entidad otorgante que estan en dh06 pero no estan en la tabla maestra de titulo dh34 | ||
+ | |||
+ | SELECT * FROM "DH06" where codc_entot not in (select codc_entot from dh34) order by codc_entot | ||
+ | |||
+ | SOLUCION: Borrar via Pervasive: | ||
+ | |||
+ | delete FROM "DH06" where codc_entot not in (select codc_entot from dh34) | ||
+ | |||
+ | *dm02 | ||
+ | |||
+ | select * from dm02 where nroestudrealizad not in (select nroestudrealizado from dh06) | ||
+ | |||
+ | delete from dm02 where nroestudrealizad not in (select nroestudrealizado from dh06) | ||
+ | |||
+ | *ona_ofer | ||
+ | |||
+ | ERROR: Hay titulos (idtitulo) en tabla ona_ofer que no estan en tabla ona_titu | ||
+ | |||
+ | El error salta para cuando idtitulo=167 o idtitulo=175. Son 9 filas en tabla ona_ofer | ||
+ | |||
+ | SOLUCION: | ||
+ | -Mandar pedido al SIU para que arregle las tablas (porque no se puede acceder a esta tablas via Pervasive ni via Sistema Pampa) | ||
+ | -Solucion provisoria: borrar esos registros en el txt de los cvs generados. | ||
+ | |||
+ | *spu_carc: El cvs de esta tabla borrarlo porque ya no se usa. | ||
+ | |||
+ | EL 03/12/2012 LAS UNICAS TABLAS DEL PAMPA RHUN 10/2012 QUE SE ENCONTRARON CON ERROR Y QUE FUERON ACTUALIZADAS SON: DH06, DM02 Y DH92 QUE SE RESTAURO EL ARCHIVO DESDE MODULO DE UTILIDADES. | ||
+ | |||
+ | Se comienza la generacion de CVS pampa rhun 10/2012 a las 10:27 am. | ||
+ | Termina la generacion de CVS pampa rhun 10/2012 a las 13:50 am. | ||
+ | |||
+ | |||
+ | =Mapuche escritorio= | ||
+ | Esta instalado en una Pc de escritorio | ||
+ | Para poder entrar con ese usuario o con cualquiera, hacen falta agregar permisos | ||
=Pruebas Mapuche= | =Pruebas Mapuche= | ||
Línea 122: | Línea 232: | ||
Necesito generar de nuevo los cvs una vez cerrado el pampa | Necesito generar de nuevo los cvs una vez cerrado el pampa | ||
===Sicoss=== | ===Sicoss=== | ||
− | |||
− | |||
− | |||
− | |||
− | |||
− | + | ====Generacion de Sicoss==== | |
+ | #ingresamos a mapuche LINK | ||
+ | # | ||
+ | ====Configuración tope==== | ||
+ | # | ||
+ | ====Archivos Generados==== | ||
+ | # | ||
− | |||
− | |||
− | Pedimos al siu que mejoren este proceso para que hagan los topes por mes retroactivo. | + | =====Funcionamiento===== |
+ | ======Prueba en hecha en junio 2011 con version Mapuche 1.12.1====== | ||
+ | Encontramos que no permite generar Sicoss para un periodo en particular como en el Pampa que te | ||
+ | permite poner mes y año (en caso de no poner nada se genera todo). | ||
+ | El proceso de generacion Sicoss genera todo (mes actual y retroactivos en el mismo proceso), tira una | ||
+ | ventana de previsualizacion de resultados y luego permite exportar los datos (los exporta en un txt | ||
+ | para cada mes retroactivo). | ||
+ | Al generar los datos de retroactivos, toma los ultimos topes, o sea los que estan en la parte de | ||
+ | configuracion de Mapuche: Configuracion-->Impositivos-->Parametros. No tiene para cargar los topes por | ||
+ | mes, si se quiere esto hay que cargar los topes del mes que se quiere generar, generar (te genera | ||
+ | todos los meses), exportar los archivos (genera un archivo por mes) y quedarme solo con los meses | ||
+ | correspondientes al tope cargado. Luego ir a configuracion para cambiar de nuevo los topes al mes que | ||
+ | queremos generar y hacer todo el proceso de nuevo. Asi sucesivamente, hasta que genere todos los meses | ||
+ | retroactivos que quiera generar. | ||
+ | |||
+ | =====Pedidos SIU===== | ||
+ | #Pedimos al siu que mejoren este proceso para que hagan los topes por mes retroactivo. | ||
http://comunidad.siu.edu.ar/index.php?topic=3433.msg13226#new | http://comunidad.siu.edu.ar/index.php?topic=3433.msg13226#new | ||
+ | |||
+ | #Pedimos al siu que se fijen porque la generacion de Sicoss para todos los legajos se clava en | ||
+ | Mapuche. | ||
+ | http://comunidad.siu.edu.ar/index.php?topic=3521.0 | ||
+ | |||
+ | #Pedimos al siu que nos que nos expliquen como hacen el calculo de Sicoss, citamos como ejemplo el | ||
+ | legajo de Cdor. Font | ||
+ | http://comunidad.siu.edu.ar/index.php?topic=3529.0 | ||
=====Datos===== | =====Datos===== | ||
Línea 144: | Línea 277: | ||
=====Datos===== | =====Datos===== | ||
===Generacion Recibos=== | ===Generacion Recibos=== | ||
+ | |||
+ | En Mapuche la generacion de recibos se guarda en el esquema Mapuche, las tablas son: dhr1(analoga a recibo1 de pampa), dhr2(analoga a recibo2 de pampa), dhr3(analoga a recibo3 de pampa) | ||
+ | |||
+ | ==Configuracion Parámetros de recibos== | ||
+ | 1)Ir a configuracion->parametros de recibos | ||
+ | ==Generacion de Recibos== | ||
+ | |||
===Acreditacion=== | ===Acreditacion=== | ||
===Apoyo banco=== | ===Apoyo banco=== | ||
Línea 164: | Línea 304: | ||
===Listado de Licencias sin goce para el area de licencias=== | ===Listado de Licencias sin goce para el area de licencias=== | ||
===Listado de incompatibilidades=== | ===Listado de incompatibilidades=== | ||
+ | |||
+ | |||
+ | |||
+ | =Bugs encontrados en Mapuche= | ||
+ | |||
+ | * En Actualización-->Definicion de Liquidacion | ||
+ | El error es un query, en ese query se muestra un nro de liquidac. que tiene descipc. vacia. No anda si hay alguna liquidacion con descripcion vacia (no se si sera solo cuando la liquidacion esta abierta). | ||
+ | Lo solucione agregando la descripcion al nro de liquidacion que me salto el error. | ||
+ | |||
+ | * En Servicios-->Acreditacion-->Generar | ||
+ | Cuando termina el proceso, hay un titulo Exportación para bancos, bno ahi el boton Volver no funciona | ||
+ | |||
+ | * Al hacer Generación de Acreditación, me da error en Reportes Remanentes (genera un pdf en otra ventana pero se abre en blanco) | ||
+ | |||
+ | *En Actualizacion-->Legajo al querer hacer una busqueda por CUIL de la persona, no funciona ese filtro ya que no me trae ningun dato. | ||
+ | |||
+ | = Trazabilidad Base de Datos Pampa-Mapuche = | ||
+ | |||
+ | == DH05 == | ||
+ | |||
+ | '''PAMPA''' '''MAPUCHE''' | ||
+ | ''nro_licenc'' ---------------> ''nro_licencia'' | ||
+ | nro_legaj nro_legaj | ||
+ | nro_cargo nro_cargo | ||
+ | fec_desde fec_desde | ||
+ | fec_hasta fec_hasta | ||
+ | ''nrovarlice'' ---------------> ''nrovarlicencia'' | ||
+ | |||
+ | == DL02 == | ||
+ | |||
+ | '''PAMPA''' '''MAPUCHE''' | ||
+ | ''nrovalice'' ---------------> ''nrovarlicencia'' | ||
+ | ''codn_tipo_'' ---------------> ''codn_tipo_lic'' | ||
+ | |||
+ | == DH02 == | ||
+ | |||
+ | En Mapuche y Pampa estan los mismos campos (falta verificar los nombres si son =) pero el campo chk_ganan de Pampa no esta en dh02 de Mapuche. | ||
+ | |||
+ | = Tablas de manejo de usuarios y perfiles en Base de Datos Mapuche = | ||
+ | |||
+ | Estas tablas estan dentro del esquema toba_mapuche | ||
+ | |||
+ | *apex_usuarios: Datos proppios de cada usuario | ||
+ | |||
+ | Campos: | ||
+ | |||
+ | -usuario: es el id del usuario. Actualmente es el nro de cuil de la persona | ||
+ | |||
+ | -clave: | ||
+ | |||
+ | -nombre: | ||
+ | |||
+ | -email: | ||
+ | |||
+ | -etc. etc, etc | ||
+ | |||
+ | *apex_usuario_grupo_acc: Perfiles Funcionales | ||
+ | |||
+ | Campos: | ||
+ | |||
+ | -proyecto: | ||
+ | |||
+ | -usuario_grupo_acc: id del perfil funcional | ||
+ | |||
+ | -nombre: | ||
+ | |||
+ | -nivel_acceso: | ||
+ | |||
+ | -etc. etc, etc | ||
+ | |||
+ | |||
+ | *apex_usuario_grupo_acc_item: Permisos por Perfil Funcional | ||
+ | |||
+ | *apex_usuario_grupo_acc_miembros: Perfiles Funcional anidados (perfiles funcionales que pertenecen a un perfil funcional padre) | ||
+ | |||
+ | *apex_usuarios_perfil_datos: Perfiles de Datos | ||
+ | |||
+ | Campos: | ||
+ | |||
+ | -proyecto: | ||
+ | |||
+ | -usuario_perfil_datos: id del perfil | ||
+ | |||
+ | -nombre: | ||
+ | |||
+ | -descripcion: | ||
+ | |||
+ | -listar: | ||
+ | |||
+ | *apex_usuarios_perfil_datos_dim: Perfiles de Datos por Dimension | ||
+ | |||
+ | Campos: | ||
+ | |||
+ | -usuario_perfil_datos: id del perfil | ||
+ | |||
+ | -dimension: es unica en Mapuche por ahora, siempre es 13 y significa que el perfil de datos se hace por dependencia | ||
+ | |||
+ | -elemento= NO SE AUN | ||
+ | |||
+ | -clave: cada una de las dependencias CREOOOOO (NO SE QUE TABLA MAESTRA DE DEPENDENCIAS MIRA PARA TOMAR LA DIMENSION DEPENDENCIA) | ||
+ | |||
+ | *apex_usuario_proyecto: Perfil Funcional por Usuario | ||
+ | |||
+ | Campos: | ||
+ | |||
+ | -proyecto: | ||
+ | |||
+ | -usuario_grupo_acc: id del perfil funcional asociado | ||
+ | |||
+ | -usuario: Actualmente es el nro de cuil de la persona () | ||
+ | |||
+ | -usuario_perfil_datos: Actualmente esta en NULL | ||
+ | |||
+ | *apex_usuario_proyecto_perfil_datos: Perfil de Datos por Usuario | ||
+ | |||
+ | Campos: | ||
+ | |||
+ | -proyecto: | ||
+ | |||
+ | -usuario_perfil_datos: id del perfil de datos | ||
+ | |||
+ | -usuario: Actualmente es el nro de cuil de la persona () | ||
+ | |||
+ | =Ubicacion fisica de reportes en servidor Mapuche= | ||
+ | |||
+ | Donde estan fisicamente los reportes? | ||
+ | |||
+ | -En version del año 2011: | ||
+ | |||
+ | *Reportes estandar: | ||
+ | /servers/produccion/mapuche/aplicacion/php/modelos/impresion/pdf/plantillas/reportes/novedades/movimientos | ||
+ | *Imagenes de los reportes estandar: | ||
+ | /servers/produccion/mapuche/aplicacion/php/modelos/impresion/pdf/soporte/images | ||
+ | *Reportes personalizados: | ||
+ | /servers/produccion/mapuche/aplicacion/personalizacion/plantillas/reportes/novedades/movimientos | ||
+ | *Imagenes de los reportes personalizados: | ||
+ | /servers/produccion/mapuche/aplicacion/personalizacion/soporte/image | ||
+ | |||
+ | -En version del año 2013: | ||
+ | |||
+ | ./mapuche/mapuche/aplicacion/php/modelos/generacion/recursos/imagenes/ | ||
+ | |||
+ | =Consulta sql para relacionar datos desde 2 bases de postgres distintas= | ||
+ | |||
+ | Esto en Postgres solo es posible hacerlo instalando DBLink en un cliente (no en el server, por ej. en una maquina local). Me conecto a una base local en mi compu (donde tengo instalado DBLink) y alli ejecuto las consultas relacionando con las bases en el servidor. | ||
+ | |||
+ | * Cant de movimientos (desde el log) por dep, por tipo de movimiento | ||
+ | |||
+ | select id_dep,auditoria_operacion,count(*) as cant | ||
+ | from | ||
+ | dblink('dbname=mapuche201309asig hostaddr=200.16.30.7 user=postgres | ||
+ | password=xxxx port=5432','SELECT | ||
+ | auditoria_usuario,auditoria_operacion,auditoria_fecha | ||
+ | FROM mapuche_auditoria.logs_dh02') as log02(auditoria_usuario character | ||
+ | varying(30),auditoria_operacion character(1),auditoria_fecha timestamp | ||
+ | without time zone), | ||
+ | dblink('dbname=mapucheusuariosasig hostaddr=200.16.30.7 user=postgres | ||
+ | password=xxxx port=5432','SELECT usuario,nombre FROM | ||
+ | toba_mapuche.apex_usuario') as apex_usu(usuario character | ||
+ | varying(60),nombre text), | ||
+ | dblink('dbname=mapucheusuariosasig hostaddr=200.16.30.7 user=postgres | ||
+ | password=xxxx port=5432','SELECT usuario_perfil_datos,usuario FROM | ||
+ | toba_mapuche.apex_usuario_proyecto_perfil_datos') as | ||
+ | apex_perfil_datos(id_perfil_datos bigint,usu character varying(60)), | ||
+ | dblink('dbname=mapucheusuariosasig hostaddr=200.16.30.7 user=postgres | ||
+ | password=xxxx port=5432','SELECT usuario_perfil_datos,clave FROM | ||
+ | toba_mapuche.apex_usuario_perfil_datos_dims') as | ||
+ | apex_perfil_datosxdep(id_perfil_datos bigint,id_dep text) | ||
+ | where log02.auditoria_usuario=apex_usu.usuario and | ||
+ | apex_usu.usuario=apex_perfil_datos.usu and | ||
+ | apex_perfil_datos.id_perfil_datos=apex_perfil_datosxdep.id_perfil_datos | ||
+ | group by id_dep,auditoria_operacion | ||
+ | order by id_dep,auditoria_operacion | ||
+ | |||
+ | =Perfiles Funcionales= | ||
+ | Se guardan tanto en la base de datos (dentro del esquema toba_usuarios) como tambien en archivos php. | ||
+ | |||
+ | Ejemplo del directorio: | ||
+ | /201305_v1.21.3_dgti/mapuche/aplicacion/metadatos_compilados/gene/ | ||
+ | |||
+ | Dentro de esa carpeta, los archivos que guarda son: | ||
+ | |||
+ | *toba_mc_gene__grupo_admin.php | ||
+ | *toba_mc_gene__grupo_data_admin.php | ||
+ | |||
+ | =Tablas a tocar cuando quiero borrar un concepto en Mapuche= | ||
+ | |||
+ | *dh12 (histor-->dh62) | ||
+ | *dh13 (histor-->dh63) | ||
+ | *dh14 | ||
+ | *dh15 | ||
+ | *dh16 | ||
+ | *dh22 | ||
+ | *dh23 | ||
+ | |||
+ | =Creacion de Usuarios Mapuche= | ||
+ | |||
+ | ==Con Mapuches con OpendId== | ||
+ | Hay que entrar al Toba, crear un nuevo usuario y ponerle la clave P3rs3v3r4.Y.Tr1unf4r4s, sin importar que usuario sea....a TODOS la misma clave. |
Revisión actual del 10:44 29 jun 2016
Instalación de aplicaciones para Mapuche
Estructura Escritorio SIU-Mapuche
Primeras pruebas con el Sistema Mapuche
Contenido
- 1 2013/04
- 2 Migracion Mapuche
- 3 Instalacion Mapuche
- 4 Servidores
- 5 Como ingresar a Mapuche
- 6 Errores
- 7 Mapuche escritorio
- 8 Pruebas Mapuche
- 8.1 Procesos PosLiquidacion
- 8.2 Configuracion Parámetros de recibos
- 8.3 Generacion de Recibos
- 8.4 Procesos que van desde la Concentrac. hasta Liquidacion
- 9 Bugs encontrados en Mapuche
- 10 Trazabilidad Base de Datos Pampa-Mapuche
- 11 Tablas de manejo de usuarios y perfiles en Base de Datos Mapuche
- 12 Ubicacion fisica de reportes en servidor Mapuche
- 13 Consulta sql para relacionar datos desde 2 bases de postgres distintas
- 14 Perfiles Funcionales
- 15 Tablas a tocar cuando quiero borrar un concepto en Mapuche
- 16 Creacion de Usuarios Mapuche
2013/04
Caracteristicas del servidor USO EXCLISVO -Cpu Intel(R) Core(TM) i5 CPU 750 @ 2.67GHz -Memoria 8GB ddr3 ( 1333 MHz) -Disco del sistema operativo de 160GB sata -Discos del raid 1+0 4 discos sata de 640 gb -Datos de la instalacion de mapuche y postgres: -sistema mapche en disco sata (junto con sistem aoperativo) base de postgres en otros discos con con raid 1+0 sata (espejado+velocidad) con log de la base en otro disco (el del sistema mapuche)
Sistema operativo -Debian 5.0.8 -Version de apache 2.2.9 -Version de php 5.2.6-1 -Version de postgres 8.3.13
Version Mapuche -1.18.0 Mes Año Pampa - 201209
Migracion Mapuche
Pasos:
1- Reindexacion archivo cuentas Bancarias
Consiste en restaurar el archivo dh92.dat (porque tiene los identificadores unicos en 0 por haber sido reimportado...esto renumero el id), desde el modulo utilidades de Pampa ir el menu Procesos-->Restaurar Archivos. Siempre hacer esto antes de generar CVS.
2- Arreglar errores frecuentes que se dan en la migracion, por incosnsistencias y/o diferencias en el funcionamiento de ambos sistema(Pampa vs. Mapuche)
Para ello:
a) Crear una carpeta en T:\MAPUCHE\migracion que se llame AAAAMM
b) Copiar alli el archivo que esta en:
T:\MAPUCHE\migracion\errores_grales.txt
c) Ejecutar los scripts que estan en ese archivo y anotar debajo de cada consulta cuantos registros se modificaron luego de cada update.
3- Arreglar en Pampa errores de Migracion del Mes anterior
Consiste en tomar los errores de la tabla migracion_borrados del esquema public en postgres en Mapuche del mes anterior y en base al detalle del error entrar a Pervasive en la coneccion con el Pampa central del mes actual y ejecutar consultas sql y update para modificar. Entrar a postgres desde 200.16.30.7/Pg
Consulta1: Para saber en que tablas hubo errores
select distinct tabla from migracion_borrados
Consulta2: Para arreglar los errores de cada tabla que tiro error (siempre escribir el nombre de la tabla en minuscula)
select* from migracion_borrados where tabla='dha1'
4- Generacion cvs Pampa
5- Revision Errores de Generacion CVS Pampa
Consiste en revisar el archivo exporta.txt (creado al generar CVS) y analizar lor errores que genera y si dio algun error arrgelarlo via Pervasive y volver a generar los CVSs de solo los archivos .dat que se tocaron.
7- Copiar los archivos CVS
- Copiar via explorador de archivos los CVS generados a T:\MAPUCHE\CVS\
- Entrar x ftp al servidor donde trabajamos y de alli copiar los CVS generados a a la carpeta /lmanjarres/mapuche/POSTGRES/
8- Preparar el entorno y migrar
Crear la Base Crear usuario Crear el esquema siu
9- Ejecutar scripts de migracion
- Ejecutar Migracion
- Ejecutar Tablas
- Ejecutar Copy
- Ejecutar Funcion de Migracion
- Ejecutar Indices: psql siu –f Pampa_Indices.sql –o Migración_Resultados_paso4.txt –U pampa 2>err_paso4.txt
Instalacion Mapuche
Proceso de Instalacion
- Copiar el instalador de mapuche al root del servidor (/var/www) y descomprimirlo o copiar la carpeta ya descomprimida.
- Ejecutar el instalador
- Si la instalacion es completa seguir todos los pasos.
Servidores
172.18.230.20 (SEIYA o 122 en 2ºPiso)- postgres 9.2 o 3 192.168.19.42 (Postgres 02 en 6ºPiso) - MV
- NO EXITE MAS - *192.168.10.137 (servidor de computos 2do piso). Datos para entrar a administrar el servidor--> passw: ******* - NO EXISTE MAS -*200.16.30.7 (servidor de computos en el 6to piso).Datos para entrar a administrar el servidor--> passw: *******
Como ingresar a Mapuche
Mapuche produccion
En un navegador poner http://<ip_servidor>/siu/mapuche/
- Usuario de Mapuche: mapuche
- Passw de Mapuche: *******
Mapuche migracion
En un navegador poner http://<ip_servidor>/siu_migracion/mapuche/
- Usuario de Mapuche: mapuche
- Passw de Mapuche: *******
Errores
Errores al ejecutar Migracion
Errores generados hasta correr el PampaCoy.sql, antes de la funcion de la migracion=
- dh23:
linea 36550, nro_liqui=846 tiene valor nulo en el campo codn_conce linea 37352, nro_liqui=869 tiene valor nulo en el campo codn_conce
- dh92: Clave duplicada, regenerar el archivo via modulo de Utilidades para regenerar el campo clave que es un autonumerico.
- do01: Hay valores nulos en el campo codc_regio (tercer campo, reemplazar x "000")
- dh41: Claves duplicadas (legajo, mes ano)
- spu_vnci: Valor nulo en campo desc_abrev, linea 1
- spu_ipco: Valor nulo para campo ano_retro
Errores de tabla migracion_borrados: datos del 09/2012 a la fecha 29/11/2012=
- dh05: valores nulos en campo fec_desde
Detectar el error: select nro_licencia,nro_legaj,nro_cargo, fec_desde, fec_hasta FROM pampa.dh05 where fec_desde is NULL
Corregir el error via postgres: delete FROM pampa.dh05 where fec_desde is NULL
- dh16
El error que tira en general es que hay un concepto que esta en dh16 y no esta en dh12
SELECT * FROM "DH16" where codn_conce not in (select codn_conce from dh12)
SOLUCION: borrar de dh16 los conceptos que no estan en dh12
- dh23
El error que tira en general es que hay un concepto que esta en dh23 y no esta en dh12
SELECT * FROM "DH23" where codn_conce not in (select codn_conce from dh12)
SOLUCION: borrar de dh23 los conceptos que no estan en dh12
- dha1
Codigo de provincia+codigo postal+codigo repetidos tiene que estar en DHA4 (dha1::codigo_repetidos codigo_provincia codigo_postal -> dha4::codigo_repetidos codigo_provincia codigo_postal)
SOLUCION Los errores saltan para cuando en dha1 el codigo_provincia='XX',codigo_postal=5000,codigo_repetidos='00', pero estan esos codigos en la tabla dha4. NO PUDIMOS DETECTAR COMO ARREGLAR EL ERROR
- dl15
Error: dl15::nro_licencia -> dh05::nro_licencia (permite nulo: S)
El campo dl15.nro_licencia es un identificador unico. En los campos que tienen error es porque dl15.nro_licencia=0. Son los casos que se hace el calculo de LAO via Pampa, que genera una entrada en DL15 pero no genera bien ese campo.
SELECT * FROM "Dl15" where periodo=2011 and nro_licencia not in (select nro_licencia from dh05)
SELECT max(nro_licencia) FROM "Dl15"
SELECT * FROM "DL15" where nro_legajo=29978
SELECT * FROM "DL15" where tipo_mov='CAL' AND NRO_LICENCIA IN (SELECT NRO_LICENCIA FROM DH05) ORDER BY NRO_LEGAJO
SOLUCION1= Aun no se si es una solucion valida (lo que hice fue poner algun nro_licencia ya existente en dh05)
SELECT fecha_mov,fecha_hasta,periodo,nro_liquidacion,nro_licencia FROM dl15 where nro_licencia=0 and tipo_mov='CAL' and observaciones='AJUSTE'
update dl15 set nro_licencia=139457 where nro_licencia=0 and tipo_mov='CAL' and observaciones='AJUSTE'
SOLUCION2=Tengo que probar si con esta solucion no salta el error luego de hecha la migracion. Pareceria ser la solucion mas viable porque en teoria cuando se hace el calculo de LAO se genera un registro en dl15 con el nro_licencia en nulo
update "DL15" set nro_licencia=null where nro_licencia=0
- dh06
ERROR: Hay codigo de titulo que estan en dh06 pero no estan en la tabla maestra de titulo dh33
SOLUCION: Borrar en dh06 los titulos esos invalidos (entrando al Pampa y borrar a mano). Los legajos son:
-28354, codc_titul=TSD -48520, codc_titul=LMAT
SELECT * FROM "DH06" where codc_titul not in (select codc_titul from dh33)
delete FROM "DH06" where codc_titul not in (select codc_titul from dh33)
ERROR: Hay codigo de entidad otorgante que estan en dh06 pero no estan en la tabla maestra de titulo dh34
SELECT * FROM "DH06" where codc_entot not in (select codc_entot from dh34) order by codc_entot
SOLUCION: Borrar via Pervasive:
delete FROM "DH06" where codc_entot not in (select codc_entot from dh34)
- dm02
select * from dm02 where nroestudrealizad not in (select nroestudrealizado from dh06)
delete from dm02 where nroestudrealizad not in (select nroestudrealizado from dh06)
- ona_ofer
ERROR: Hay titulos (idtitulo) en tabla ona_ofer que no estan en tabla ona_titu
El error salta para cuando idtitulo=167 o idtitulo=175. Son 9 filas en tabla ona_ofer
SOLUCION: -Mandar pedido al SIU para que arregle las tablas (porque no se puede acceder a esta tablas via Pervasive ni via Sistema Pampa) -Solucion provisoria: borrar esos registros en el txt de los cvs generados.
- spu_carc: El cvs de esta tabla borrarlo porque ya no se usa.
EL 03/12/2012 LAS UNICAS TABLAS DEL PAMPA RHUN 10/2012 QUE SE ENCONTRARON CON ERROR Y QUE FUERON ACTUALIZADAS SON: DH06, DM02 Y DH92 QUE SE RESTAURO EL ARCHIVO DESDE MODULO DE UTILIDADES.
Se comienza la generacion de CVS pampa rhun 10/2012 a las 10:27 am. Termina la generacion de CVS pampa rhun 10/2012 a las 13:50 am.
Mapuche escritorio
Esta instalado en una Pc de escritorio Para poder entrar con ese usuario o con cualquiera, hacen falta agregar permisos
Pruebas Mapuche
Procesos PosLiquidacion
Necesito generar de nuevo los cvs una vez cerrado el pampa
Sicoss
Generacion de Sicoss
#ingresamos a mapuche LINK #
Configuración tope
#
Archivos Generados
#
Funcionamiento
Prueba en hecha en junio 2011 con version Mapuche 1.12.1
Encontramos que no permite generar Sicoss para un periodo en particular como en el Pampa que te permite poner mes y año (en caso de no poner nada se genera todo). El proceso de generacion Sicoss genera todo (mes actual y retroactivos en el mismo proceso), tira una ventana de previsualizacion de resultados y luego permite exportar los datos (los exporta en un txt para cada mes retroactivo). Al generar los datos de retroactivos, toma los ultimos topes, o sea los que estan en la parte de configuracion de Mapuche: Configuracion-->Impositivos-->Parametros. No tiene para cargar los topes por mes, si se quiere esto hay que cargar los topes del mes que se quiere generar, generar (te genera todos los meses), exportar los archivos (genera un archivo por mes) y quedarme solo con los meses correspondientes al tope cargado. Luego ir a configuracion para cambiar de nuevo los topes al mes que queremos generar y hacer todo el proceso de nuevo. Asi sucesivamente, hasta que genere todos los meses retroactivos que quiera generar.
Pedidos SIU
#Pedimos al siu que mejoren este proceso para que hagan los topes por mes retroactivo. http://comunidad.siu.edu.ar/index.php?topic=3433.msg13226#new
#Pedimos al siu que se fijen porque la generacion de Sicoss para todos los legajos se clava en Mapuche. http://comunidad.siu.edu.ar/index.php?topic=3521.0
#Pedimos al siu que nos que nos expliquen como hacen el calculo de Sicoss, citamos como ejemplo el legajo de Cdor. Font http://comunidad.siu.edu.ar/index.php?topic=3529.0
Datos
No tenemos datos de errores producidos para probar. Juan deberia informarnos esto.
Sicore
Funcionamiento
Datos
Generacion Recibos
En Mapuche la generacion de recibos se guarda en el esquema Mapuche, las tablas son: dhr1(analoga a recibo1 de pampa), dhr2(analoga a recibo2 de pampa), dhr3(analoga a recibo3 de pampa)
Configuracion Parámetros de recibos
1)Ir a configuracion->parametros de recibos
Generacion de Recibos
Acreditacion
Apoyo banco
Salida de terceros (Dasou, Gremios, Seguro de vida, etc)
Certificacion de servicios prestados por dependencia (mensualmente)
Pilaga
O3
Rhun
Relacion con el sistema (SIFLA) de Andrea
Procesos que van desde la Concentrac. hasta Liquidacion
Liquidacion en Pampa esritorio
Funcionamiento
Datos
Calculo Cuarta Categoria
Funcionamiento
Probar en Pampa escritorio
Importacion de Terceros
Incorporac. de ctas. bancarias y pedido de ctas. nvas.
Listado de Licencias sin goce para el area de licencias
Listado de incompatibilidades
Bugs encontrados en Mapuche
- En Actualización-->Definicion de Liquidacion
El error es un query, en ese query se muestra un nro de liquidac. que tiene descipc. vacia. No anda si hay alguna liquidacion con descripcion vacia (no se si sera solo cuando la liquidacion esta abierta). Lo solucione agregando la descripcion al nro de liquidacion que me salto el error.
- En Servicios-->Acreditacion-->Generar
Cuando termina el proceso, hay un titulo Exportación para bancos, bno ahi el boton Volver no funciona
- Al hacer Generación de Acreditación, me da error en Reportes Remanentes (genera un pdf en otra ventana pero se abre en blanco)
- En Actualizacion-->Legajo al querer hacer una busqueda por CUIL de la persona, no funciona ese filtro ya que no me trae ningun dato.
Trazabilidad Base de Datos Pampa-Mapuche
DH05
PAMPA MAPUCHE nro_licenc ---------------> nro_licencia nro_legaj nro_legaj nro_cargo nro_cargo fec_desde fec_desde fec_hasta fec_hasta nrovarlice ---------------> nrovarlicencia
DL02
PAMPA MAPUCHE nrovalice ---------------> nrovarlicencia codn_tipo_ ---------------> codn_tipo_lic
DH02
En Mapuche y Pampa estan los mismos campos (falta verificar los nombres si son =) pero el campo chk_ganan de Pampa no esta en dh02 de Mapuche.
Tablas de manejo de usuarios y perfiles en Base de Datos Mapuche
Estas tablas estan dentro del esquema toba_mapuche
- apex_usuarios: Datos proppios de cada usuario
Campos:
-usuario: es el id del usuario. Actualmente es el nro de cuil de la persona
-clave:
-nombre:
-email:
-etc. etc, etc
- apex_usuario_grupo_acc: Perfiles Funcionales
Campos:
-proyecto:
-usuario_grupo_acc: id del perfil funcional
-nombre:
-nivel_acceso:
-etc. etc, etc
- apex_usuario_grupo_acc_item: Permisos por Perfil Funcional
- apex_usuario_grupo_acc_miembros: Perfiles Funcional anidados (perfiles funcionales que pertenecen a un perfil funcional padre)
- apex_usuarios_perfil_datos: Perfiles de Datos
Campos:
-proyecto:
-usuario_perfil_datos: id del perfil
-nombre:
-descripcion:
-listar:
- apex_usuarios_perfil_datos_dim: Perfiles de Datos por Dimension
Campos:
-usuario_perfil_datos: id del perfil
-dimension: es unica en Mapuche por ahora, siempre es 13 y significa que el perfil de datos se hace por dependencia
-elemento= NO SE AUN
-clave: cada una de las dependencias CREOOOOO (NO SE QUE TABLA MAESTRA DE DEPENDENCIAS MIRA PARA TOMAR LA DIMENSION DEPENDENCIA)
- apex_usuario_proyecto: Perfil Funcional por Usuario
Campos:
-proyecto:
-usuario_grupo_acc: id del perfil funcional asociado
-usuario: Actualmente es el nro de cuil de la persona ()
-usuario_perfil_datos: Actualmente esta en NULL
- apex_usuario_proyecto_perfil_datos: Perfil de Datos por Usuario
Campos:
-proyecto:
-usuario_perfil_datos: id del perfil de datos
-usuario: Actualmente es el nro de cuil de la persona ()
Ubicacion fisica de reportes en servidor Mapuche
Donde estan fisicamente los reportes?
-En version del año 2011:
- Reportes estandar:
/servers/produccion/mapuche/aplicacion/php/modelos/impresion/pdf/plantillas/reportes/novedades/movimientos
- Imagenes de los reportes estandar:
/servers/produccion/mapuche/aplicacion/php/modelos/impresion/pdf/soporte/images
- Reportes personalizados:
/servers/produccion/mapuche/aplicacion/personalizacion/plantillas/reportes/novedades/movimientos
- Imagenes de los reportes personalizados:
/servers/produccion/mapuche/aplicacion/personalizacion/soporte/image
-En version del año 2013:
./mapuche/mapuche/aplicacion/php/modelos/generacion/recursos/imagenes/
Consulta sql para relacionar datos desde 2 bases de postgres distintas
Esto en Postgres solo es posible hacerlo instalando DBLink en un cliente (no en el server, por ej. en una maquina local). Me conecto a una base local en mi compu (donde tengo instalado DBLink) y alli ejecuto las consultas relacionando con las bases en el servidor.
- Cant de movimientos (desde el log) por dep, por tipo de movimiento
select id_dep,auditoria_operacion,count(*) as cant from dblink('dbname=mapuche201309asig hostaddr=200.16.30.7 user=postgres password=xxxx port=5432','SELECT auditoria_usuario,auditoria_operacion,auditoria_fecha FROM mapuche_auditoria.logs_dh02') as log02(auditoria_usuario character varying(30),auditoria_operacion character(1),auditoria_fecha timestamp without time zone), dblink('dbname=mapucheusuariosasig hostaddr=200.16.30.7 user=postgres password=xxxx port=5432','SELECT usuario,nombre FROM toba_mapuche.apex_usuario') as apex_usu(usuario character varying(60),nombre text), dblink('dbname=mapucheusuariosasig hostaddr=200.16.30.7 user=postgres password=xxxx port=5432','SELECT usuario_perfil_datos,usuario FROM toba_mapuche.apex_usuario_proyecto_perfil_datos') as apex_perfil_datos(id_perfil_datos bigint,usu character varying(60)), dblink('dbname=mapucheusuariosasig hostaddr=200.16.30.7 user=postgres password=xxxx port=5432','SELECT usuario_perfil_datos,clave FROM toba_mapuche.apex_usuario_perfil_datos_dims') as apex_perfil_datosxdep(id_perfil_datos bigint,id_dep text) where log02.auditoria_usuario=apex_usu.usuario and apex_usu.usuario=apex_perfil_datos.usu and apex_perfil_datos.id_perfil_datos=apex_perfil_datosxdep.id_perfil_datos group by id_dep,auditoria_operacion order by id_dep,auditoria_operacion
Perfiles Funcionales
Se guardan tanto en la base de datos (dentro del esquema toba_usuarios) como tambien en archivos php.
Ejemplo del directorio: /201305_v1.21.3_dgti/mapuche/aplicacion/metadatos_compilados/gene/
Dentro de esa carpeta, los archivos que guarda son:
- toba_mc_gene__grupo_admin.php
- toba_mc_gene__grupo_data_admin.php
Tablas a tocar cuando quiero borrar un concepto en Mapuche
- dh12 (histor-->dh62)
- dh13 (histor-->dh63)
- dh14
- dh15
- dh16
- dh22
- dh23
Creacion de Usuarios Mapuche
Con Mapuches con OpendId
Hay que entrar al Toba, crear un nuevo usuario y ponerle la clave P3rs3v3r4.Y.Tr1unf4r4s, sin importar que usuario sea....a TODOS la misma clave.