Diferencia entre revisiones de «Mapuche»

De Wiki
Saltar a: navegación, buscar
(Errores de tabla migracion_borrados: datos del 09/2012 a la fecha 29/11/2012)
 
(No se muestran 87 ediciones intermedias de 5 usuarios)
Línea 1: Línea 1:
 +
[[Instalación Mapuche|Instalación de aplicaciones para Mapuche]]
 +
 +
[[Usuario SIU-Mapuche]]
 +
 +
[[Estructura Escritorio SIU-Mapuche]]
 +
 +
[[Documentacion Mapuche]]
 +
 
Primeras pruebas con el Sistema Mapuche
 
Primeras pruebas con el Sistema Mapuche
 +
 +
==2013/04==
 +
Caracteristicas del servidor USO EXCLISVO
 +
  -Cpu  Intel(R) Core(TM) i5 CPU 750  @ 2.67GHz
 +
  -Memoria 8GB ddr3 ( 1333 MHz)
 +
  -Disco del sistema operativo de 160GB sata
 +
  -Discos del raid 1+0 4 discos sata de 640 gb
 +
  -Datos de la instalacion de mapuche y postgres:
 +
  -sistema mapche en disco sata (junto con sistem aoperativo)
 +
  base de postgres en otros discos con con raid 1+0 sata (espejado+velocidad) con log
 +
  de la base en otro disco (el del sistema mapuche)
 +
 +
Sistema operativo
 +
  -Debian 5.0.8
 +
  -Version de apache 2.2.9
 +
  -Version de php  5.2.6-1
 +
  -Version de postgres 8.3.13
 +
 +
Version Mapuche
 +
  -1.18.0
 +
Mes Año Pampa
 +
  - 201209
  
 
=Migracion Mapuche=
 
=Migracion Mapuche=
Línea 6: Línea 36:
 
1- Reindexacion archivo cuentas Bancarias
 
1- Reindexacion archivo cuentas Bancarias
  
  Consiste en reindexar el archivo dh92.dat, desde el modulo utilidades de Pampa ir el menu Procesos-->Restaurar Archivos. Siempre hacer esto antes de generar CVS.
+
  Consiste en restaurar el archivo dh92.dat (porque tiene los identificadores unicos en 0 por haber sido reimportado...esto renumero el id), desde el modulo utilidades de Pampa ir el menu Procesos-->Restaurar Archivos. Siempre hacer esto antes de generar CVS.
 +
 
 +
2- Arreglar errores frecuentes que se dan en la migracion, por incosnsistencias y/o diferencias en el funcionamiento de ambos sistema(Pampa vs. Mapuche)
 +
 
 +
Para ello:
 +
 
 +
a) Crear una carpeta en T:\MAPUCHE\migracion que se llame AAAAMM
 +
 
 +
b) Copiar alli el archivo que esta en:
  
2- Arreglar en Pampa errores de Migracion del Mes anterior
+
T:\MAPUCHE\migracion\errores_grales.txt
  
Consiste en tomar los errores de la tabla migracion_borrados del esquema public en postgres en Mapuche del mes anterior y en base al detalle del error entrar a Pervasive en la coneccion con el Pampa central del mes actual y ejecutar consultas sql y update para modificar. Entrar a postgres desde 200.16.30.7/Pg
+
c) Ejecutar los scripts que estan en ese archivo y anotar debajo de cada consulta cuantos registros se modificaron luego de cada update.
 +
 
 +
3- Arreglar en Pampa errores de Migracion del Mes anterior
 +
 
 +
Consiste en tomar los errores de la tabla migracion_borrados del esquema public en postgres en Mapuche del mes anterior y en base al detalle del error entrar a Pervasive en la coneccion con el Pampa central del mes actual y ejecutar consultas sql y update para modificar. Entrar a postgres desde 200.16.30.7/Pg
  
 
Consulta1:
 
Consulta1:
Línea 22: Línea 64:
 
  select* from migracion_borrados where tabla='dha1'
 
  select* from migracion_borrados where tabla='dha1'
  
3- Revision Errores de Generacion CVS Pampa
+
4- Generacion cvs Pampa
 +
 
 +
5- Revision Errores de Generacion CVS Pampa
 +
 
 +
Consiste en revisar el archivo exporta.txt (creado al generar CVS) y analizar lor errores que genera y si dio algun error arrgelarlo via Pervasive y volver a generar los CVSs de solo los archivos .dat que se tocaron.
  
Consiste en revisar el archivo exporta.txt (creado al generar CVS) y analizar lor errores que genera.
+
7- Copiar los archivos CVS
  
4- Generacion cvs Pampa
+
*Copiar via explorador de archivos los CVS generados a  T:\MAPUCHE\CVS\
 +
*Entrar x ftp al servidor donde trabajamos y de alli copiar los CVS generados a a la carpeta /lmanjarres/mapuche/POSTGRES/
 +
 
 +
8- Preparar el entorno y migrar
 +
  Crear la Base
 +
  Crear usuario
 +
  Crear el esquema siu
  
5- Ejecutar scripts de  migracion
+
9- Ejecutar scripts de  migracion
  
 
*Ejecutar Migracion
 
*Ejecutar Migracion
Línea 35: Línea 87:
 
*Ejecutar Funcion de Migracion
 
*Ejecutar Funcion de Migracion
 
*Ejecutar Indices: psql siu –f Pampa_Indices.sql –o Migración_Resultados_paso4.txt –U pampa 2>err_paso4.txt
 
*Ejecutar Indices: psql siu –f Pampa_Indices.sql –o Migración_Resultados_paso4.txt –U pampa 2>err_paso4.txt
 +
 +
=Instalacion Mapuche=
 +
==Proceso de Instalacion==
 +
*Copiar el instalador de mapuche al root del servidor (/var/www) y descomprimirlo o copiar la carpeta ya descomprimida.
 +
*Ejecutar el instalador
 +
*Si la instalacion es completa seguir todos los pasos.
 
 
  
==Servidores==
+
=Servidores=
*192.168.10.137 (servidor de computos 2do piso). Datos para entrar a administrar el servidor--> passw: *******
+
172.18.230.20 (SEIYA o 122 en 2ºPiso)- postgres 9.2 o 3 
*200.16.30.7 (servidor de computos en el 6to piso).Datos para entrar a administrar el servidor--> passw: *******
+
192.168.19.42 (Postgres 02 en 6ºPiso) - MV
  
==Como ingresar a Mapuche==
+
- NO EXITE MAS - *192.168.10.137 (servidor de computos 2do piso). Datos para entrar a administrar el servidor--> passw: *******
===Mapuche produccion===
+
- NO EXISTE MAS -*200.16.30.7 (servidor de computos en el 6to piso).Datos para entrar a administrar el servidor--> passw: *******
 +
 
 +
=Como ingresar a Mapuche=
 +
==Mapuche produccion==
 
En un navegador poner http://<ip_servidor>/siu/mapuche/
 
En un navegador poner http://<ip_servidor>/siu/mapuche/
 
*Usuario de Mapuche: mapuche
 
*Usuario de Mapuche: mapuche
 
*Passw de Mapuche: *******
 
*Passw de Mapuche: *******
  
===Mapuche migracion===
+
==Mapuche migracion==
 
En un navegador poner http://<ip_servidor>/siu_migracion/mapuche/
 
En un navegador poner http://<ip_servidor>/siu_migracion/mapuche/
 
*Usuario de Mapuche: mapuche
 
*Usuario de Mapuche: mapuche
 
*Passw de Mapuche: *******
 
*Passw de Mapuche: *******
  
 
+
=Errores=
==Generar los CVS==
+
==Errores al ejecutar Migracion==
===Antes de generar===
+
===Errores generados hasta correr el PampaCoy.sql, antes de la funcion de la migracion====
*Ir al modulo de Utilidades y restaurar el archivo dh92, porque tiene los identificadores unicos en 0, esto los autonumera.
 
*Crear un archivo dh41.cvs en blanco y pisar el que tiene datos hasta que se eliminen los registros de clave duplicada en dh41.
 
*Crear un archivo dho01.cvs en blanco y pisar el que esta hasta que se rellene los valores nulos del campo codc_regio(tercera columna), por ejemplo con un valor "000".
 
 
 
Controlar via consulta Pervasive que no existan estos errores:
 
*dh23: Controlar que no haya valores nulos en el campo codn_conce
 
  SELECT * FROM "DH23" where codn_conce IS NULL
 
*spu_vnci: Controlar que no exista ningun valor nulo en campo desc_abrev.
 
  SELECT * FROM "spu_vnci" where desc_abrev IS NULL
 
 
 
===Generar CVS===
 
Generar los CVS
 
 
 
==Proceso de Migracion==
 
===Generar y copiar los archivos CVS===
 
 
 
*Copiar via explorador de archivos los CVS generados a  T:\MAPUCHE\CVS\
 
Para los archivos que dan error al importar como dh41, borrar el dh41.cvs y crear un nuevo archivo con ese nombre pero vacio en T:\MAPUCHE\CVS\.
 
*Entrar x ftp al servidor donde trabajamos y de alli copiar los CVS generados a a la carpeta /lmanjarres/mapuche/POSTGRES/
 
 
 
===Preparar el entorno y migrar===
 
  Crear la Base
 
  Crear usuario
 
  Crear el esquema siu
 
 
 
====Ejecutar scripts====
 
=====Migracion completa=====
 
 
 
*Ejecutar Migracion
 
*Ejecutar Tablas
 
*Ejecutar Copy
 
*Ejecutar Funcion de Migracion
 
*Ejecutar Indices: psql siu –f Pampa_Indices.sql –o Migración_Resultados_paso4.txt –U pampa 2>err_paso4.txt
 
 
 
==Errores==
 
===Errores al ejecutar Migracion===
 
====Errores generados hasta correr el PampaCoy.sql, antes de la funcion de la migracion====
 
 
*dh23:   
 
*dh23:   
 
   linea 36550, nro_liqui=846 tiene valor nulo en el campo codn_conce
 
   linea 36550, nro_liqui=846 tiene valor nulo en el campo codn_conce
Línea 101: Línea 125:
 
*spu_ipco: Valor nulo para campo ano_retro
 
*spu_ipco: Valor nulo para campo ano_retro
  
====Errores de tabla migracion_borrados: datos del 09/2012 a la fecha 29/11/2012====
+
===Errores de tabla migracion_borrados: datos del 09/2012 a la fecha 29/11/2012====
 +
*dh05: valores nulos en campo fec_desde
 +
Detectar el error:
 +
  select nro_licencia,nro_legaj,nro_cargo, fec_desde, fec_hasta
 +
  FROM pampa.dh05
 +
  where fec_desde is NULL
 +
 
 +
Corregir el error via postgres:
 +
  delete FROM pampa.dh05
 +
  where fec_desde is NULL
 +
 
 
*dh16
 
*dh16
 
El error que tira en general es que hay un concepto que esta en dh16 y no esta en dh12
 
El error que tira en general es que hay un concepto que esta en dh16 y no esta en dh12
Línea 188: Línea 222:
 
Se comienza la generacion de CVS pampa rhun 10/2012 a las 10:27 am.
 
Se comienza la generacion de CVS pampa rhun 10/2012 a las 10:27 am.
 
Termina la generacion de CVS pampa rhun 10/2012 a las 13:50 am.
 
Termina la generacion de CVS pampa rhun 10/2012 a las 13:50 am.
 
=Instalacion Mapuche=
 
==Proceso de Instalacion==
 
*Copiar el instalador de mapuche al root del servidor (/var/www) y descomprimirlo o copiar la carpeta ya descomprimida.
 
*Ejecutar el instalador
 
*Si la instalacion es completa seguir todos los pasos.
 
 
==Errores al Instalar==
 
Version Mapuche 1.12.1
 
*dh05: valores nulos en campo fec_desde
 
Detectar el error:
 
  select nro_licencia,nro_legaj,nro_cargo, fec_desde, fec_hasta
 
  FROM pampa.dh05
 
  where fec_desde is NULL
 
 
Corregir el error via postgres:
 
  delete FROM pampa.dh05
 
  where fec_desde is NULL
 
 
  
  
Línea 217: Línea 232:
 
Necesito generar de nuevo los cvs una vez cerrado el pampa
 
Necesito generar de nuevo los cvs una vez cerrado el pampa
 
===Sicoss===
 
===Sicoss===
En Mapuche entrar a Comunicacion-->AFIP-->SICOSS
 
=====Funcionamiento=====
 
*Prueba en hecha en junio 2011 con version Mapuche 1.12.1
 
Encontramos que no permite generar Sicoss para un periodo en particular como en el Pampa que te permite poner mes y año (en caso de no poner nada se genera todo).
 
  
El proceso de generacion Sicoss genera todo (mes actual y retroactivos en el mismo proceso), tira una ventana de previsualizacion de resultados y luego permite exportar los datos (los exporta en un txt para cada mes retroactivo).
 
  
Al generar los datos de retroactivos, toma los ultimos topes, o sea los que estan en la parte de configuracion de Mapuche: Configuracion-->Impositivos-->Parametros. No tiene para cargar los topes por mes, si se quiere esto hay que cargar los topes del mes que se quiere generar, generar (te genera todos los meses), exportar los archivos (genera un archivo por mes) y quedarme solo con los meses correspondientes al tope cargado. Luego ir a configuracion para cambiar de nuevo los topes al mes que queremos generar y hacer todo el proceso de nuevo. Asi sucesivamente, hasta que genere todos los meses retroactivos que quiera generar.
+
====Generacion de Sicoss====
 +
#ingresamos a mapuche LINK
 +
#
 +
====Configuración tope====
 +
#
 +
====Archivos Generados====
 +
#
 +
 
 +
 
 +
=====Funcionamiento=====
 +
======Prueba en hecha en junio 2011 con version Mapuche 1.12.1======
 +
Encontramos que no permite generar Sicoss para un periodo en particular como en el Pampa que te
 +
permite poner mes y año (en caso de no poner nada se genera todo).
 +
El proceso de generacion Sicoss genera todo (mes actual y retroactivos en el mismo proceso), tira una
 +
ventana de previsualizacion de resultados y luego permite exportar los datos (los exporta en un txt
 +
para cada mes retroactivo).
 +
Al generar los datos de retroactivos, toma los ultimos topes, o sea los que estan en la parte de
 +
configuracion de Mapuche: Configuracion-->Impositivos-->Parametros. No tiene para cargar los topes por
 +
mes, si se quiere esto hay que cargar los topes del mes que se quiere generar, generar (te genera
 +
todos los meses), exportar los archivos (genera un archivo por mes) y quedarme solo con los meses
 +
correspondientes al tope cargado. Luego ir a configuracion para cambiar de nuevo los topes al mes que
 +
queremos generar y hacer todo el proceso de nuevo. Asi sucesivamente, hasta que genere todos los meses
 +
retroactivos que quiera generar.
  
*Pedidos SIU
+
=====Pedidos SIU=====
   Pedimos al siu que mejoren este proceso para que hagan los topes por mes retroactivo.
+
   #Pedimos al siu que mejoren este proceso para que hagan los topes por mes retroactivo.
 
   http://comunidad.siu.edu.ar/index.php?topic=3433.msg13226#new
 
   http://comunidad.siu.edu.ar/index.php?topic=3433.msg13226#new
  
   Pedimos al siu que se fijen porque la generacion de Sicoss para todos los legajos se clava en Mapuche.
+
   #Pedimos al siu que se fijen porque la generacion de Sicoss para todos los legajos se clava en
 +
Mapuche.
 
   http://comunidad.siu.edu.ar/index.php?topic=3521.0
 
   http://comunidad.siu.edu.ar/index.php?topic=3521.0
  
   Pedimos al siu que nos que nos expliquen como hacen el calculo de Sicoss, citamos como ejemplo el legajo de Cdor. Font
+
   #Pedimos al siu que nos que nos expliquen como hacen el calculo de Sicoss, citamos como ejemplo el
 +
legajo de Cdor. Font
 
   http://comunidad.siu.edu.ar/index.php?topic=3529.0
 
   http://comunidad.siu.edu.ar/index.php?topic=3529.0
  
Línea 243: Línea 277:
 
=====Datos=====
 
=====Datos=====
 
===Generacion Recibos===
 
===Generacion Recibos===
 +
 +
En Mapuche la generacion de recibos se guarda en el esquema Mapuche, las tablas son: dhr1(analoga a recibo1 de pampa), dhr2(analoga a recibo2 de pampa), dhr3(analoga a recibo3 de pampa)
 +
 +
==Configuracion Parámetros de recibos==
 +
1)Ir a configuracion->parametros de recibos
 +
==Generacion de Recibos==
 +
 
===Acreditacion===
 
===Acreditacion===
 
===Apoyo banco===
 
===Apoyo banco===
Línea 263: Línea 304:
 
===Listado de Licencias sin goce para el area de licencias===
 
===Listado de Licencias sin goce para el area de licencias===
 
===Listado de incompatibilidades===
 
===Listado de incompatibilidades===
 +
 +
  
 
=Bugs encontrados en Mapuche=
 
=Bugs encontrados en Mapuche=
 +
 
* En Actualización-->Definicion de Liquidacion
 
* En Actualización-->Definicion de Liquidacion
 
El error es un query, en ese query se muestra un nro de liquidac. que tiene descipc. vacia. No anda si hay alguna liquidacion con descripcion vacia (no se si sera solo cuando la liquidacion esta abierta).
 
El error es un query, en ese query se muestra un nro de liquidac. que tiene descipc. vacia. No anda si hay alguna liquidacion con descripcion vacia (no se si sera solo cuando la liquidacion esta abierta).
Línea 275: Línea 319:
  
 
*En Actualizacion-->Legajo al querer hacer una busqueda por CUIL de la persona, no funciona ese filtro ya que no me trae ningun dato.
 
*En Actualizacion-->Legajo al querer hacer una busqueda por CUIL de la persona, no funciona ese filtro ya que no me trae ningun dato.
 +
 +
= Trazabilidad Base de Datos Pampa-Mapuche =
 +
 +
== DH05 ==
 +
 +
    '''PAMPA'''                      '''MAPUCHE'''
 +
    ''nro_licenc'' ---------------> ''nro_licencia''
 +
    nro_legaj                  nro_legaj
 +
    nro_cargo                  nro_cargo
 +
    fec_desde                  fec_desde
 +
    fec_hasta                  fec_hasta
 +
    ''nrovarlice'' ---------------> ''nrovarlicencia''
 +
 +
== DL02 ==
 +
 +
    '''PAMPA'''                      '''MAPUCHE'''
 +
    ''nrovalice''  ---------------> ''nrovarlicencia''
 +
    ''codn_tipo_'' ---------------> ''codn_tipo_lic''
 +
 +
== DH02 ==
 +
 +
En Mapuche y Pampa estan los mismos campos (falta verificar los nombres si son =) pero el campo chk_ganan de Pampa no esta en dh02 de Mapuche.
 +
 +
= Tablas de manejo de usuarios y perfiles en Base de Datos Mapuche =
 +
 +
Estas tablas estan dentro del esquema toba_mapuche
 +
 +
*apex_usuarios: Datos proppios de cada usuario
 +
 +
Campos:
 +
 +
-usuario: es el id del usuario. Actualmente es el nro de cuil de la persona
 +
 +
-clave:
 +
 +
-nombre:
 +
 +
-email:
 +
 +
-etc. etc, etc
 +
 +
*apex_usuario_grupo_acc: Perfiles Funcionales
 +
 +
Campos:
 +
 +
-proyecto:
 +
 +
-usuario_grupo_acc: id del perfil funcional
 +
 +
-nombre:
 +
 +
-nivel_acceso:
 +
 +
-etc. etc, etc
 +
 +
 +
*apex_usuario_grupo_acc_item: Permisos por Perfil Funcional
 +
 +
*apex_usuario_grupo_acc_miembros: Perfiles Funcional anidados (perfiles funcionales que pertenecen a un perfil funcional padre)
 +
 +
*apex_usuarios_perfil_datos: Perfiles de Datos
 +
 +
Campos:
 +
 +
-proyecto:
 +
 +
-usuario_perfil_datos: id del perfil
 +
 +
-nombre:
 +
 +
-descripcion:
 +
 +
-listar:
 +
 +
*apex_usuarios_perfil_datos_dim: Perfiles de Datos por Dimension
 +
 +
Campos:
 +
 +
-usuario_perfil_datos: id del perfil
 +
 +
-dimension: es unica en Mapuche por ahora, siempre es 13 y significa que el perfil de datos se hace por dependencia
 +
 +
-elemento= NO SE AUN
 +
 +
-clave: cada una de las dependencias CREOOOOO (NO SE QUE TABLA MAESTRA DE DEPENDENCIAS MIRA PARA TOMAR LA DIMENSION DEPENDENCIA)
 +
 +
*apex_usuario_proyecto: Perfil Funcional por Usuario
 +
 +
Campos:
 +
 +
-proyecto:
 +
 +
-usuario_grupo_acc: id del perfil funcional asociado
 +
 +
-usuario: Actualmente es el nro de cuil de la persona ()
 +
 +
-usuario_perfil_datos: Actualmente esta en NULL
 +
 +
*apex_usuario_proyecto_perfil_datos: Perfil de Datos por Usuario
 +
 +
Campos:
 +
 +
-proyecto:
 +
 +
-usuario_perfil_datos: id del perfil de datos
 +
 +
-usuario: Actualmente es el nro de cuil de la persona ()
 +
 +
=Ubicacion fisica de reportes en servidor Mapuche=
 +
 +
Donde estan fisicamente los reportes?
 +
 +
-En version del año 2011:
 +
 +
*Reportes estandar:
 +
/servers/produccion/mapuche/aplicacion/php/modelos/impresion/pdf/plantillas/reportes/novedades/movimientos
 +
*Imagenes de los reportes estandar:
 +
/servers/produccion/mapuche/aplicacion/php/modelos/impresion/pdf/soporte/images
 +
*Reportes personalizados:
 +
/servers/produccion/mapuche/aplicacion/personalizacion/plantillas/reportes/novedades/movimientos
 +
*Imagenes de los reportes personalizados:
 +
/servers/produccion/mapuche/aplicacion/personalizacion/soporte/image
 +
 +
-En version del año 2013:
 +
 +
./mapuche/mapuche/aplicacion/php/modelos/generacion/recursos/imagenes/
 +
 +
=Consulta sql para relacionar datos desde 2 bases de postgres distintas=
 +
 +
Esto en Postgres solo es posible hacerlo instalando DBLink en un cliente (no en el server, por ej. en una maquina local). Me conecto a una base local en mi compu (donde tengo instalado DBLink) y alli ejecuto las consultas relacionando con las bases en el servidor.
 +
 +
* Cant de movimientos (desde el log) por dep, por tipo de movimiento
 +
 +
select id_dep,auditoria_operacion,count(*) as cant
 +
from
 +
dblink('dbname=mapuche201309asig hostaddr=200.16.30.7 user=postgres
 +
password=xxxx port=5432','SELECT
 +
auditoria_usuario,auditoria_operacion,auditoria_fecha
 +
FROM mapuche_auditoria.logs_dh02') as log02(auditoria_usuario  character
 +
varying(30),auditoria_operacion  character(1),auditoria_fecha timestamp
 +
without time zone),
 +
dblink('dbname=mapucheusuariosasig hostaddr=200.16.30.7 user=postgres
 +
password=xxxx port=5432','SELECT usuario,nombre FROM
 +
toba_mapuche.apex_usuario') as apex_usu(usuario character
 +
varying(60),nombre text),
 +
dblink('dbname=mapucheusuariosasig hostaddr=200.16.30.7 user=postgres
 +
password=xxxx port=5432','SELECT usuario_perfil_datos,usuario FROM
 +
toba_mapuche.apex_usuario_proyecto_perfil_datos') as
 +
apex_perfil_datos(id_perfil_datos bigint,usu character varying(60)),
 +
dblink('dbname=mapucheusuariosasig hostaddr=200.16.30.7 user=postgres
 +
password=xxxx port=5432','SELECT usuario_perfil_datos,clave FROM
 +
toba_mapuche.apex_usuario_perfil_datos_dims') as
 +
apex_perfil_datosxdep(id_perfil_datos bigint,id_dep text)
 +
where log02.auditoria_usuario=apex_usu.usuario and
 +
apex_usu.usuario=apex_perfil_datos.usu and
 +
apex_perfil_datos.id_perfil_datos=apex_perfil_datosxdep.id_perfil_datos
 +
group by id_dep,auditoria_operacion
 +
order by id_dep,auditoria_operacion
 +
 +
=Perfiles Funcionales=
 +
Se guardan tanto en la base de datos (dentro del esquema toba_usuarios) como tambien en archivos php.
 +
 +
Ejemplo del directorio:
 +
/201305_v1.21.3_dgti/mapuche/aplicacion/metadatos_compilados/gene/
 +
 +
Dentro de esa carpeta, los archivos que guarda son:
 +
 +
*toba_mc_gene__grupo_admin.php
 +
*toba_mc_gene__grupo_data_admin.php
 +
 +
=Tablas a tocar cuando quiero borrar un concepto en Mapuche=
 +
 +
*dh12 (histor-->dh62)
 +
*dh13 (histor-->dh63)
 +
*dh14
 +
*dh15
 +
*dh16
 +
*dh22
 +
*dh23
 +
 +
=Creacion de Usuarios Mapuche=
 +
 +
==Con Mapuches con OpendId==
 +
Hay que entrar al Toba, crear un nuevo usuario y ponerle la clave P3rs3v3r4.Y.Tr1unf4r4s, sin importar que usuario sea....a TODOS la misma clave.

Revisión actual del 09:44 29 jun 2016

Instalación de aplicaciones para Mapuche

Usuario SIU-Mapuche

Estructura Escritorio SIU-Mapuche

Documentacion Mapuche

Primeras pruebas con el Sistema Mapuche

Contenido

2013/04

Caracteristicas del servidor USO EXCLISVO
  -Cpu  Intel(R) Core(TM) i5 CPU 750  @ 2.67GHz
 -Memoria 8GB ddr3 ( 1333 MHz)
 -Disco del sistema operativo de 160GB sata
 -Discos del raid 1+0 4 discos sata de 640 gb
 -Datos de la instalacion de mapuche y postgres:
 -sistema mapche en disco sata (junto con sistem aoperativo)
  base de postgres en otros discos con con raid 1+0 sata (espejado+velocidad) con log
  de la base en otro disco (el del sistema mapuche)
Sistema operativo
 -Debian 5.0.8
 -Version de apache 2.2.9
 -Version de php  5.2.6-1
 -Version de postgres 8.3.13
Version Mapuche
 -1.18.0
Mes Año Pampa
 - 201209

Migracion Mapuche

Pasos:

1- Reindexacion archivo cuentas Bancarias

Consiste en restaurar el archivo dh92.dat (porque tiene los identificadores unicos en 0 por haber sido reimportado...esto renumero el id), desde el modulo utilidades de Pampa ir el menu Procesos-->Restaurar Archivos. Siempre hacer esto antes de generar CVS.

2- Arreglar errores frecuentes que se dan en la migracion, por incosnsistencias y/o diferencias en el funcionamiento de ambos sistema(Pampa vs. Mapuche)

Para ello:

a) Crear una carpeta en T:\MAPUCHE\migracion que se llame AAAAMM

b) Copiar alli el archivo que esta en:

T:\MAPUCHE\migracion\errores_grales.txt

c) Ejecutar los scripts que estan en ese archivo y anotar debajo de cada consulta cuantos registros se modificaron luego de cada update.

3- Arreglar en Pampa errores de Migracion del Mes anterior

Consiste en tomar los errores de la tabla migracion_borrados del esquema public en postgres en Mapuche del mes anterior y en base al detalle del error entrar a Pervasive en la coneccion con el Pampa central del mes actual y ejecutar consultas sql y update para modificar. Entrar a postgres desde 200.16.30.7/Pg

Consulta1: Para saber en que tablas hubo errores

select distinct tabla from migracion_borrados	

Consulta2: Para arreglar los errores de cada tabla que tiro error (siempre escribir el nombre de la tabla en minuscula)

select* from migracion_borrados where tabla='dha1'

4- Generacion cvs Pampa

5- Revision Errores de Generacion CVS Pampa

Consiste en revisar el archivo exporta.txt (creado al generar CVS) y analizar lor errores que genera y si dio algun error arrgelarlo via Pervasive y volver a generar los CVSs de solo los archivos .dat que se tocaron.

7- Copiar los archivos CVS

  • Copiar via explorador de archivos los CVS generados a T:\MAPUCHE\CVS\
  • Entrar x ftp al servidor donde trabajamos y de alli copiar los CVS generados a a la carpeta /lmanjarres/mapuche/POSTGRES/

8- Preparar el entorno y migrar

 Crear la Base
 Crear usuario
 Crear el esquema siu

9- Ejecutar scripts de migracion

  • Ejecutar Migracion
  • Ejecutar Tablas
  • Ejecutar Copy
  • Ejecutar Funcion de Migracion
  • Ejecutar Indices: psql siu –f Pampa_Indices.sql –o Migración_Resultados_paso4.txt –U pampa 2>err_paso4.txt

Instalacion Mapuche

Proceso de Instalacion

  • Copiar el instalador de mapuche al root del servidor (/var/www) y descomprimirlo o copiar la carpeta ya descomprimida.
  • Ejecutar el instalador
  • Si la instalacion es completa seguir todos los pasos.


Servidores

172.18.230.20 (SEIYA o 122 en 2ºPiso)- postgres 9.2 o 3   
192.168.19.42 (Postgres 02 en 6ºPiso) - MV
- NO EXITE MAS - *192.168.10.137 (servidor de computos 2do piso). Datos para entrar a administrar el servidor--> passw: *******
- NO EXISTE MAS -*200.16.30.7 (servidor de computos en el 6to piso).Datos para entrar a administrar el servidor--> passw: *******

Como ingresar a Mapuche

Mapuche produccion

En un navegador poner http://<ip_servidor>/siu/mapuche/

  • Usuario de Mapuche: mapuche
  • Passw de Mapuche: *******

Mapuche migracion

En un navegador poner http://<ip_servidor>/siu_migracion/mapuche/

  • Usuario de Mapuche: mapuche
  • Passw de Mapuche: *******

Errores

Errores al ejecutar Migracion

Errores generados hasta correr el PampaCoy.sql, antes de la funcion de la migracion=

  • dh23:
 linea 36550, nro_liqui=846 tiene valor nulo en el campo codn_conce
 linea 37352, nro_liqui=869 tiene valor nulo en el campo codn_conce
  • dh92: Clave duplicada, regenerar el archivo via modulo de Utilidades para regenerar el campo clave que es un autonumerico.
  • do01: Hay valores nulos en el campo codc_regio (tercer campo, reemplazar x "000")
  • dh41: Claves duplicadas (legajo, mes ano)
  • spu_vnci: Valor nulo en campo desc_abrev, linea 1
  • spu_ipco: Valor nulo para campo ano_retro

Errores de tabla migracion_borrados: datos del 09/2012 a la fecha 29/11/2012=

  • dh05: valores nulos en campo fec_desde
Detectar el error: 
 select nro_licencia,nro_legaj,nro_cargo, fec_desde, fec_hasta
 FROM pampa.dh05
 where fec_desde is NULL
Corregir el error via postgres: 
 delete FROM pampa.dh05
 where fec_desde is NULL
  • dh16

El error que tira en general es que hay un concepto que esta en dh16 y no esta en dh12

SELECT * FROM "DH16" where codn_conce not in (select codn_conce from dh12)

SOLUCION: borrar de dh16 los conceptos que no estan en dh12

  • dh23

El error que tira en general es que hay un concepto que esta en dh23 y no esta en dh12

SELECT * FROM "DH23" where codn_conce not in (select codn_conce from dh12)

SOLUCION: borrar de dh23 los conceptos que no estan en dh12

  • dha1

Codigo de provincia+codigo postal+codigo repetidos tiene que estar en DHA4 (dha1::codigo_repetidos codigo_provincia codigo_postal -> dha4::codigo_repetidos codigo_provincia codigo_postal)

SOLUCION Los errores saltan para cuando en dha1 el codigo_provincia='XX',codigo_postal=5000,codigo_repetidos='00', pero estan esos codigos en la tabla dha4. NO PUDIMOS DETECTAR COMO ARREGLAR EL ERROR

  • dl15

Error: dl15::nro_licencia -> dh05::nro_licencia (permite nulo: S)

El campo dl15.nro_licencia es un identificador unico. En los campos que tienen error es porque dl15.nro_licencia=0. Son los casos que se hace el calculo de LAO via Pampa, que genera una entrada en DL15 pero no genera bien ese campo.

SELECT * FROM "Dl15" where periodo=2011 and nro_licencia not in (select nro_licencia from dh05)

SELECT max(nro_licencia) FROM "Dl15"

SELECT * FROM "DL15" where nro_legajo=29978

SELECT * FROM "DL15" where tipo_mov='CAL' AND NRO_LICENCIA IN (SELECT NRO_LICENCIA FROM DH05) ORDER BY NRO_LEGAJO

SOLUCION1= Aun no se si es una solucion valida (lo que hice fue poner algun nro_licencia ya existente en dh05)

SELECT fecha_mov,fecha_hasta,periodo,nro_liquidacion,nro_licencia FROM dl15 where nro_licencia=0 and tipo_mov='CAL' and observaciones='AJUSTE'

update dl15 set nro_licencia=139457 where nro_licencia=0 and tipo_mov='CAL' and observaciones='AJUSTE'

SOLUCION2=Tengo que probar si con esta solucion no salta el error luego de hecha la migracion. Pareceria ser la solucion mas viable porque en teoria cuando se hace el calculo de LAO se genera un registro en dl15 con el nro_licencia en nulo

update "DL15" set nro_licencia=null where nro_licencia=0

  • dh06

ERROR: Hay codigo de titulo que estan en dh06 pero no estan en la tabla maestra de titulo dh33

SOLUCION: Borrar en dh06 los titulos esos invalidos (entrando al Pampa y borrar a mano). Los legajos son:

 -28354, codc_titul=TSD
 -48520, codc_titul=LMAT

SELECT * FROM "DH06" where codc_titul not in (select codc_titul from dh33)

delete FROM "DH06" where codc_titul not in (select codc_titul from dh33)

ERROR: Hay codigo de entidad otorgante que estan en dh06 pero no estan en la tabla maestra de titulo dh34

SELECT * FROM "DH06" where codc_entot not in (select codc_entot from dh34) order by codc_entot

SOLUCION: Borrar via Pervasive:

 delete FROM "DH06" where codc_entot not in (select codc_entot from dh34)
  • dm02

select * from dm02 where nroestudrealizad not in (select nroestudrealizado from dh06)

delete from dm02 where nroestudrealizad not in (select nroestudrealizado from dh06)

  • ona_ofer

ERROR: Hay titulos (idtitulo) en tabla ona_ofer que no estan en tabla ona_titu

El error salta para cuando idtitulo=167 o idtitulo=175. Son 9 filas en tabla ona_ofer

SOLUCION: -Mandar pedido al SIU para que arregle las tablas (porque no se puede acceder a esta tablas via Pervasive ni via Sistema Pampa) -Solucion provisoria: borrar esos registros en el txt de los cvs generados.

  • spu_carc: El cvs de esta tabla borrarlo porque ya no se usa.

EL 03/12/2012 LAS UNICAS TABLAS DEL PAMPA RHUN 10/2012 QUE SE ENCONTRARON CON ERROR Y QUE FUERON ACTUALIZADAS SON: DH06, DM02 Y DH92 QUE SE RESTAURO EL ARCHIVO DESDE MODULO DE UTILIDADES.

Se comienza la generacion de CVS pampa rhun 10/2012 a las 10:27 am. Termina la generacion de CVS pampa rhun 10/2012 a las 13:50 am.


Mapuche escritorio

Esta instalado en una Pc de escritorio Para poder entrar con ese usuario o con cualquiera, hacen falta agregar permisos

Pruebas Mapuche

Procesos PosLiquidacion

Necesito generar de nuevo los cvs una vez cerrado el pampa

Sicoss

Generacion de Sicoss

#ingresamos a mapuche LINK
#

Configuración tope

#

Archivos Generados

#


Funcionamiento
Prueba en hecha en junio 2011 con version Mapuche 1.12.1
Encontramos que no permite generar Sicoss para un periodo en particular como en el Pampa que te
permite poner mes y año (en caso de no poner nada se genera todo).
El proceso de generacion Sicoss genera todo (mes actual y retroactivos en el mismo proceso), tira una
ventana de previsualizacion de resultados y luego permite exportar los datos (los exporta en un txt
para cada mes retroactivo).
Al generar los datos de retroactivos, toma los ultimos topes, o sea los que estan en la parte de
configuracion de Mapuche: Configuracion-->Impositivos-->Parametros. No tiene para cargar los topes por
mes, si se quiere esto hay que cargar los topes del mes que se quiere generar, generar (te genera
todos los meses), exportar los archivos (genera un archivo por mes) y quedarme solo con los meses
correspondientes al tope cargado. Luego ir a configuracion para cambiar de nuevo los topes al mes que
queremos generar y hacer todo el proceso de nuevo. Asi sucesivamente, hasta que genere todos los meses
retroactivos que quiera generar.
Pedidos SIU
 #Pedimos al siu que mejoren este proceso para que hagan los topes por mes retroactivo.
 http://comunidad.siu.edu.ar/index.php?topic=3433.msg13226#new
 #Pedimos al siu que se fijen porque la generacion de Sicoss para todos los legajos se clava en
Mapuche.
 http://comunidad.siu.edu.ar/index.php?topic=3521.0
 #Pedimos al siu que nos que nos expliquen como hacen el calculo de Sicoss, citamos como ejemplo el
legajo de Cdor. Font
 http://comunidad.siu.edu.ar/index.php?topic=3529.0
Datos

No tenemos datos de errores producidos para probar. Juan deberia informarnos esto.

Sicore

Funcionamiento
Datos

Generacion Recibos

En Mapuche la generacion de recibos se guarda en el esquema Mapuche, las tablas son: dhr1(analoga a recibo1 de pampa), dhr2(analoga a recibo2 de pampa), dhr3(analoga a recibo3 de pampa)

Configuracion Parámetros de recibos

1)Ir a configuracion->parametros de recibos

Generacion de Recibos

Acreditacion

Apoyo banco

Salida de terceros (Dasou, Gremios, Seguro de vida, etc)

Certificacion de servicios prestados por dependencia (mensualmente)

Pilaga

O3

Rhun

Relacion con el sistema (SIFLA) de Andrea

Procesos que van desde la Concentrac. hasta Liquidacion

Liquidacion en Pampa esritorio

Funcionamiento
Datos

Calculo Cuarta Categoria

Funcionamiento

Probar en Pampa escritorio

Importacion de Terceros

Incorporac. de ctas. bancarias y pedido de ctas. nvas.

Listado de Licencias sin goce para el area de licencias

Listado de incompatibilidades

Bugs encontrados en Mapuche

  • En Actualización-->Definicion de Liquidacion

El error es un query, en ese query se muestra un nro de liquidac. que tiene descipc. vacia. No anda si hay alguna liquidacion con descripcion vacia (no se si sera solo cuando la liquidacion esta abierta). Lo solucione agregando la descripcion al nro de liquidacion que me salto el error.

  • En Servicios-->Acreditacion-->Generar

Cuando termina el proceso, hay un titulo Exportación para bancos, bno ahi el boton Volver no funciona

  • Al hacer Generación de Acreditación, me da error en Reportes Remanentes (genera un pdf en otra ventana pero se abre en blanco)
  • En Actualizacion-->Legajo al querer hacer una busqueda por CUIL de la persona, no funciona ese filtro ya que no me trae ningun dato.

Trazabilidad Base de Datos Pampa-Mapuche

DH05

    PAMPA                       MAPUCHE
    nro_licenc ---------------> nro_licencia
    nro_legaj                   nro_legaj
    nro_cargo                   nro_cargo
    fec_desde                   fec_desde
    fec_hasta                   fec_hasta
    nrovarlice ---------------> nrovarlicencia

DL02

    PAMPA                       MAPUCHE
    nrovalice  ---------------> nrovarlicencia
    codn_tipo_ ---------------> codn_tipo_lic

DH02

En Mapuche y Pampa estan los mismos campos (falta verificar los nombres si son =) pero el campo chk_ganan de Pampa no esta en dh02 de Mapuche.

Tablas de manejo de usuarios y perfiles en Base de Datos Mapuche

Estas tablas estan dentro del esquema toba_mapuche

  • apex_usuarios: Datos proppios de cada usuario

Campos:

-usuario: es el id del usuario. Actualmente es el nro de cuil de la persona

-clave:

-nombre:

-email:

-etc. etc, etc

  • apex_usuario_grupo_acc: Perfiles Funcionales

Campos:

-proyecto:

-usuario_grupo_acc: id del perfil funcional

-nombre:

-nivel_acceso:

-etc. etc, etc


  • apex_usuario_grupo_acc_item: Permisos por Perfil Funcional
  • apex_usuario_grupo_acc_miembros: Perfiles Funcional anidados (perfiles funcionales que pertenecen a un perfil funcional padre)
  • apex_usuarios_perfil_datos: Perfiles de Datos

Campos:

-proyecto:

-usuario_perfil_datos: id del perfil

-nombre:

-descripcion:

-listar:

  • apex_usuarios_perfil_datos_dim: Perfiles de Datos por Dimension

Campos:

-usuario_perfil_datos: id del perfil

-dimension: es unica en Mapuche por ahora, siempre es 13 y significa que el perfil de datos se hace por dependencia

-elemento= NO SE AUN

-clave: cada una de las dependencias CREOOOOO (NO SE QUE TABLA MAESTRA DE DEPENDENCIAS MIRA PARA TOMAR LA DIMENSION DEPENDENCIA)

  • apex_usuario_proyecto: Perfil Funcional por Usuario

Campos:

-proyecto:

-usuario_grupo_acc: id del perfil funcional asociado

-usuario: Actualmente es el nro de cuil de la persona ()

-usuario_perfil_datos: Actualmente esta en NULL

  • apex_usuario_proyecto_perfil_datos: Perfil de Datos por Usuario

Campos:

-proyecto:

-usuario_perfil_datos: id del perfil de datos

-usuario: Actualmente es el nro de cuil de la persona ()

Ubicacion fisica de reportes en servidor Mapuche

Donde estan fisicamente los reportes?

-En version del año 2011:

  • Reportes estandar:

/servers/produccion/mapuche/aplicacion/php/modelos/impresion/pdf/plantillas/reportes/novedades/movimientos

  • Imagenes de los reportes estandar:

/servers/produccion/mapuche/aplicacion/php/modelos/impresion/pdf/soporte/images

  • Reportes personalizados:

/servers/produccion/mapuche/aplicacion/personalizacion/plantillas/reportes/novedades/movimientos

  • Imagenes de los reportes personalizados:

/servers/produccion/mapuche/aplicacion/personalizacion/soporte/image

-En version del año 2013:

./mapuche/mapuche/aplicacion/php/modelos/generacion/recursos/imagenes/

Consulta sql para relacionar datos desde 2 bases de postgres distintas

Esto en Postgres solo es posible hacerlo instalando DBLink en un cliente (no en el server, por ej. en una maquina local). Me conecto a una base local en mi compu (donde tengo instalado DBLink) y alli ejecuto las consultas relacionando con las bases en el servidor.

  • Cant de movimientos (desde el log) por dep, por tipo de movimiento

select id_dep,auditoria_operacion,count(*) as cant from dblink('dbname=mapuche201309asig hostaddr=200.16.30.7 user=postgres password=xxxx port=5432','SELECT auditoria_usuario,auditoria_operacion,auditoria_fecha FROM mapuche_auditoria.logs_dh02') as log02(auditoria_usuario character varying(30),auditoria_operacion character(1),auditoria_fecha timestamp without time zone), dblink('dbname=mapucheusuariosasig hostaddr=200.16.30.7 user=postgres password=xxxx port=5432','SELECT usuario,nombre FROM toba_mapuche.apex_usuario') as apex_usu(usuario character varying(60),nombre text), dblink('dbname=mapucheusuariosasig hostaddr=200.16.30.7 user=postgres password=xxxx port=5432','SELECT usuario_perfil_datos,usuario FROM toba_mapuche.apex_usuario_proyecto_perfil_datos') as apex_perfil_datos(id_perfil_datos bigint,usu character varying(60)), dblink('dbname=mapucheusuariosasig hostaddr=200.16.30.7 user=postgres password=xxxx port=5432','SELECT usuario_perfil_datos,clave FROM toba_mapuche.apex_usuario_perfil_datos_dims') as apex_perfil_datosxdep(id_perfil_datos bigint,id_dep text) where log02.auditoria_usuario=apex_usu.usuario and apex_usu.usuario=apex_perfil_datos.usu and apex_perfil_datos.id_perfil_datos=apex_perfil_datosxdep.id_perfil_datos group by id_dep,auditoria_operacion order by id_dep,auditoria_operacion

Perfiles Funcionales

Se guardan tanto en la base de datos (dentro del esquema toba_usuarios) como tambien en archivos php.

Ejemplo del directorio: /201305_v1.21.3_dgti/mapuche/aplicacion/metadatos_compilados/gene/

Dentro de esa carpeta, los archivos que guarda son:

  • toba_mc_gene__grupo_admin.php
  • toba_mc_gene__grupo_data_admin.php

Tablas a tocar cuando quiero borrar un concepto en Mapuche

  • dh12 (histor-->dh62)
  • dh13 (histor-->dh63)
  • dh14
  • dh15
  • dh16
  • dh22
  • dh23

Creacion de Usuarios Mapuche

Con Mapuches con OpendId

Hay que entrar al Toba, crear un nuevo usuario y ponerle la clave P3rs3v3r4.Y.Tr1unf4r4s, sin importar que usuario sea....a TODOS la misma clave.