Diferencia entre revisiones de «Mapuche»

De Wiki
Saltar a: navegación, buscar
(Procesos PosLiquidacion)
 
(No se muestran 168 ediciones intermedias de 5 usuarios)
Línea 1: Línea 1:
 +
[[Instalación Mapuche|Instalación de aplicaciones para Mapuche]]
 +
 +
[[Usuario SIU-Mapuche]]
 +
 +
[[Estructura Escritorio SIU-Mapuche]]
 +
 +
[[Documentacion Mapuche]]
 +
 
Primeras pruebas con el Sistema Mapuche
 
Primeras pruebas con el Sistema Mapuche
 +
 +
==2013/04==
 +
Caracteristicas del servidor USO EXCLISVO
 +
  -Cpu  Intel(R) Core(TM) i5 CPU 750  @ 2.67GHz
 +
  -Memoria 8GB ddr3 ( 1333 MHz)
 +
  -Disco del sistema operativo de 160GB sata
 +
  -Discos del raid 1+0 4 discos sata de 640 gb
 +
  -Datos de la instalacion de mapuche y postgres:
 +
  -sistema mapche en disco sata (junto con sistem aoperativo)
 +
  base de postgres en otros discos con con raid 1+0 sata (espejado+velocidad) con log
 +
  de la base en otro disco (el del sistema mapuche)
 +
 +
Sistema operativo
 +
  -Debian 5.0.8
 +
  -Version de apache 2.2.9
 +
  -Version de php  5.2.6-1
 +
  -Version de postgres 8.3.13
 +
 +
Version Mapuche
 +
  -1.18.0
 +
Mes Año Pampa
 +
  - 201209
  
 
=Migracion Mapuche=
 
=Migracion Mapuche=
==Cositas utiles==
+
Pasos:
===Restaurar Postgres===
+
 
Ir al /etc/init.d/postgresql-8.3 restart
+
1- Reindexacion archivo cuentas Bancarias
===Tocar el archivo de configuracion de Postgres===
+
 
En la linea de comando:
+
Consiste en restaurar el archivo dh92.dat (porque tiene los identificadores unicos en 0 por haber sido reimportado...esto renumero el id), desde el modulo utilidades de Pampa ir el menu Procesos-->Restaurar Archivos. Siempre hacer esto antes de generar CVS.
mcedit /etc/postgresql/8.3/main/postgresql.conf
+
 
===Editar archivos en linux===
+
2- Arreglar errores frecuentes que se dan en la migracion, por incosnsistencias y/o diferencias en el funcionamiento de ambos sistema(Pampa vs. Mapuche)
Escribir mcedit o mc en la linea de comandos
+
 
===Hacer un dump de la base===
+
Para ello:
  pg_dump -U postgres siu > bd_cordoba.sql
+
 
 +
a) Crear una carpeta en T:\MAPUCHE\migracion que se llame AAAAMM
 +
 
 +
b) Copiar alli el archivo que esta en:
 +
 
 +
T:\MAPUCHE\migracion\errores_grales.txt
 +
 
 +
c) Ejecutar los scripts que estan en ese archivo y anotar debajo de cada consulta cuantos registros se modificaron luego de cada update.  
 +
 
 +
3- Arreglar en Pampa errores de Migracion del Mes anterior
 +
 
 +
Consiste en tomar los errores de la tabla migracion_borrados del esquema public en postgres en Mapuche del mes anterior y en base al detalle del error entrar a Pervasive en la coneccion con el Pampa central del mes actual y ejecutar consultas sql y update para modificar. Entrar a postgres desde 200.16.30.7/Pg
 +
 
 +
Consulta1:
 +
Para saber en que tablas hubo errores
 +
 
 +
select distinct tabla from migracion_borrados
  
==Generar los CVS==
+
Consulta2:
===Antes de generar===
+
Para arreglar los errores de cada tabla que tiro error (siempre escribir el nombre de la tabla en minuscula)
*Ir al modulo de Utilidades y restaurar el archivo dh92, porque tiene los identificadores unicos en 0, esto los autonumera.
 
*Crear un archivo dh41.cvs en blanco y pisar el que tiene datos hasta que se eliminen los registros de clave duplicada en dh41.
 
*Crear un archivo dho01.cvs en blanco y pisar el que esta hasta que se rellene los valores nulos del campo codc_regio(tercera columna), por ejemplo con un valor "000".
 
  
Controlar via consulta Pervasive que no existan estos errores:
+
select* from migracion_borrados where tabla='dha1'
*dh23: Controlar que no haya valores nulos en el campo codn_conce
 
  SELECT * FROM "DH23" where codn_conce IS NULL
 
*spu_vnci: Controlar que no exista ningun valor nulo en campo desc_abrev.
 
  SELECT * FROM "spu_vnci" where desc_abrev IS NULL
 
  
===Antes de comenzar el Proceso de Migracion===
+
4- Generacion cvs Pampa
*Opcion1:
 
Editar el archivo Pampa_Copy.sql y cambiar la ruta "/tmp/" por "/home/lmanjarres/mapuche/POSTGRES/"
 
  
*Opcion2:
+
5- Revision Errores de Generacion CVS Pampa
Se recomienda crear en el directorio RRHH el archivo POSTGRE.INI informando el Path en el que estarán todos los archivos con los datos del sistema SIU-Pampa que serán importados a la base PostgreSQL mediante la sentencia COPY de la base:
 
  
[Generacion]
+
Consiste en revisar el archivo exporta.txt (creado al generar CVS) y analizar lor errores que genera y si dio algun error arrgelarlo via Pervasive y volver a generar los CVSs de solo los archivos .dat que se tocaron.
PathCopy = {Escribir aquí por ejemplo: /tmp/pampa/ }
 
  
===Generar CVS===
+
7- Copiar los archivos CVS
En el modulo Intercambio, menu
 
*Procesos--> Generación Completa a PostgreSQL-->Esquema de Tablas
 
*Procesos--> Generación Completa a PostgreSQL-->Datos en formato texto
 
*Procesos--> Generación Completa a PostgreSQL-->Script para Importacion
 
*Procesos--> Generación Completa a PostgreSQL-->Script para Migracion SUI-Pampa
 
*Procesos--> Generación Completa a PostgreSQL-->Esquema de Indices y Relaciones
 
  
==Proceso de Migracion==
+
*Copiar via explorador de archivos los CVS generados a  T:\MAPUCHE\CVS\  
===Generar y copiar los archivos CVS===
+
*Entrar x ftp al servidor donde trabajamos y de alli copiar los CVS generados a a la carpeta /lmanjarres/mapuche/POSTGRES/
*Entrar x ftp al servidor donde trabajamos que es: 192.168.10.137
 
*Copiar via explorador de archivos los CVS generados que se encuentran en (192.168.19.31) W:\pampa\rrhh\EXPORTAR\POSTGRE a  T:\MAPUCHE\CVS\  
 
Para los archivos que dan error al importar como dh41, borrar el dh41.cvs y crear un nuevo archivo con ese nombre pero vacio en T:\MAPUCHE\CVS\.
 
*y de alli copiarlos via ftp del servidor 192.168.10.137 a la carpeta /lmanjarres/mapuche/POSTGRES/
 
===Preparar el entorno y migrar===
 
* Entrar a puty al servidor 192.168.10.137
 
====Logueo====
 
*loguearme como usuario lmanjarres (pasw: termo31)
 
*Luego entrar como root, para ello escribir en la linea de comandos: su (passw: solECOfi)
 
*Luego me logueo como usuario postgres: su postgres
 
  
====Crear la Base====
+
8- Preparar el entorno y migrar
 +
  Crear la Base
 +
  Crear usuario
 +
  Crear el esquema siu
  
Renombrar la base siu que ya existe desde pgAdmin
+
9- Ejecutar scripts de  migracion
  createdb siu --encoding=”SQL-ASCII” –U postgres
 
====Crear usuario====
 
  createuser -a -d -P pampa –U postgres
 
====Crear e esquema====
 
    psql siu –U postgres
 
    create schema pampa authorization pampa;
 
    alter user pampa set search_path to pampa, public;
 
    \q
 
  
====Ejecutar scripts====
+
*Ejecutar Migracion
para ello moverme al directorio: cd /home/lmanjarres/mapuche/POSTGRES
+
*Ejecutar Tablas
*Migracion: psql siu –f Migracion_Pampa.sql –o Migración_Resultados_paso1.txt –U pampa 2>err_paso1.txt
+
*Ejecutar Copy
  Verificar que se hizo en el archivo de resultados (mcedit Migración_Resultados_paso1.txt)
+
*Ejecutar Funcion de Migracion
  Verificar los errores en el archivo de error (mcedit err_paso1.txt)
+
*Ejecutar Indices: psql siu –f Pampa_Indices.sql –o Migración_Resultados_paso4.txt –U pampa 2>err_paso4.txt
*Tablas: psql siu –f Pampa_Tablas.sql –o Migración_Resultados_paso2.txt –U pampa 2>err_paso2.txt
 
  Verificar que se hizo en el archivo de resultados (mcedit Migración_Resultados_paso2.txt)
 
  Verificar los errores en el archivo de error (mcedit err_paso2.txt)
 
*Copy: psql siu –f Pampa_Copy.sql –o Migración_Resultados_paso3.txt –U pampa 2>err_paso3.txt
 
  Verificar que se hizo en el archivo de resultados (mcedit Migración_Resultados_paso3.txt)
 
  Verificar los errores en el archivo de error (mcedit err_paso3.txt)
 
*Funcion de Migracion
 
Se debe ingresar al ambiente PostgreSQL mediante la sentencia “psql siu –U pampa”, y luego ejecutar la función “migración” mediante el comando. Los resultados verlos en la tabla migracion_borrados de postgres.
 
  psql siu –U pampa
 
  select migracion(2);
 
  \q
 
*Indices: psql siu –f Pampa_Indices.sql –o Migración_Resultados_paso4.txt –U pampa 2>err_paso4.txt
 
  
==Errores==
+
=Instalacion Mapuche=
===Errores al ejecutar Migracion===
+
==Proceso de Instalacion==
Errores generados hasta correr el PampaCoy.sql, antes de la funcion de la migracion.
+
*Copiar el instalador de mapuche al root del servidor (/var/www) y descomprimirlo o copiar la carpeta ya descomprimida.
 +
*Ejecutar el instalador
 +
*Si la instalacion es completa seguir todos los pasos.
 +
 +
 
 +
=Servidores=
 +
172.18.230.20 (SEIYA o 122 en 2ºPiso)- postgres 9.2 o 3 
 +
192.168.19.42 (Postgres 02 en 6ºPiso) - MV
 +
 
 +
- NO EXITE MAS - *192.168.10.137 (servidor de computos 2do piso). Datos para entrar a administrar el servidor--> passw: *******
 +
- NO EXISTE MAS -*200.16.30.7 (servidor de computos en el 6to piso).Datos para entrar a administrar el servidor--> passw: *******
 +
 
 +
=Como ingresar a Mapuche=
 +
==Mapuche produccion==
 +
En un navegador poner http://<ip_servidor>/siu/mapuche/
 +
*Usuario de Mapuche: mapuche
 +
*Passw de Mapuche: *******
 +
 
 +
==Mapuche migracion==
 +
En un navegador poner http://<ip_servidor>/siu_migracion/mapuche/
 +
*Usuario de Mapuche: mapuche
 +
*Passw de Mapuche: *******
 +
 
 +
=Errores=
 +
==Errores al ejecutar Migracion==
 +
===Errores generados hasta correr el PampaCoy.sql, antes de la funcion de la migracion====
 
*dh23:   
 
*dh23:   
 
   linea 36550, nro_liqui=846 tiene valor nulo en el campo codn_conce
 
   linea 36550, nro_liqui=846 tiene valor nulo en el campo codn_conce
Línea 96: Línea 123:
 
*dh41: Claves duplicadas (legajo, mes ano)
 
*dh41: Claves duplicadas (legajo, mes ano)
 
*spu_vnci: Valor nulo en campo desc_abrev, linea 1
 
*spu_vnci: Valor nulo en campo desc_abrev, linea 1
Hacer bk de la tabla migracion_borrados
+
*spu_ipco: Valor nulo para campo ano_retro
  pg_dump -t pampa.migracion_borrados siu > migracion_borrados_201106.sql
 
  
=Instalacion Mapuche=
+
===Errores de tabla migracion_borrados: datos del 09/2012 a la fecha 29/11/2012====
==Errores al Instalar==
 
Version Mapuche 1.12.1
 
 
*dh05: valores nulos en campo fec_desde
 
*dh05: valores nulos en campo fec_desde
 
  Detectar el error:  
 
  Detectar el error:  
Línea 112: Línea 136:
 
   where fec_desde is NULL
 
   where fec_desde is NULL
  
=Informacion de logueo en Mapuche=
+
*dh16
Prender el servidor (us:eclipse passw:termo31)
+
El error que tira en general es que hay un concepto que esta en dh16 y no esta en dh12
Entrar a http://192.168.10.137/siu/mapuche/
+
 
Us: mapuche
+
SELECT * FROM "DH16" where codn_conce not in (select codn_conce from dh12)
Passw:termo31
+
 
Usuario de Postgres para Mapuche: postgres_mapuche
+
SOLUCION: borrar de dh16 los conceptos que no estan en dh12
Passw: termo31
+
 
 +
*dh23
 +
El error que tira en general es que hay un concepto que esta en dh23 y no esta en dh12
 +
 
 +
SELECT * FROM "DH23" where codn_conce not in (select codn_conce from dh12)
 +
 
 +
SOLUCION: borrar de dh23 los conceptos que no estan en dh12
 +
 
 +
*dha1
 +
Codigo de provincia+codigo postal+codigo repetidos tiene que estar en DHA4 (dha1::codigo_repetidos codigo_provincia codigo_postal  ->  dha4::codigo_repetidos codigo_provincia codigo_postal)
 +
 
 +
SOLUCION
 +
Los errores saltan para cuando en dha1 el codigo_provincia='XX',codigo_postal=5000,codigo_repetidos='00', pero estan esos codigos en la tabla dha4. NO PUDIMOS DETECTAR COMO ARREGLAR EL ERROR
 +
 
 +
*dl15
 +
Error: dl15::nro_licencia  ->  dh05::nro_licencia  (permite nulo: S)
 +
 
 +
El campo dl15.nro_licencia es un identificador unico. En los campos que tienen error es porque dl15.nro_licencia=0. Son los casos que se hace el calculo de LAO via Pampa, que genera una entrada en DL15 pero no genera bien ese campo.
 +
 
 +
SELECT * FROM "Dl15" where periodo=2011 and nro_licencia not in (select nro_licencia from dh05)
 +
 
 +
SELECT max(nro_licencia) FROM "Dl15"
 +
 
 +
SELECT * FROM "DL15" where nro_legajo=29978
 +
 
 +
SELECT * FROM "DL15" where tipo_mov='CAL' AND NRO_LICENCIA IN (SELECT NRO_LICENCIA FROM DH05) ORDER BY NRO_LEGAJO
 +
 
 +
SOLUCION1= Aun no se si es una solucion valida (lo que hice fue poner algun nro_licencia ya existente en dh05)
 +
 
 +
SELECT fecha_mov,fecha_hasta,periodo,nro_liquidacion,nro_licencia FROM dl15 where nro_licencia=0 and tipo_mov='CAL' and observaciones='AJUSTE'
 +
 
 +
update dl15 set nro_licencia=139457 where nro_licencia=0 and tipo_mov='CAL' and observaciones='AJUSTE'
 +
 
 +
SOLUCION2=Tengo que probar si con esta solucion no salta el error luego de hecha la migracion. Pareceria ser la solucion mas viable porque en teoria cuando se hace el calculo de LAO se genera un registro en dl15 con el nro_licencia en nulo
 +
 
 +
update "DL15" set nro_licencia=null where nro_licencia=0
 +
 
 +
*dh06
 +
 
 +
ERROR: Hay codigo de titulo que estan en dh06 pero no estan en la tabla maestra de titulo dh33
 +
 
 +
SOLUCION: Borrar en dh06 los titulos esos invalidos (entrando al Pampa y borrar a mano). Los legajos son:
 +
 
 +
  -28354, codc_titul=TSD
 +
  -48520, codc_titul=LMAT
 +
 
 +
SELECT * FROM "DH06" where codc_titul not in (select codc_titul from dh33)
 +
 
 +
delete FROM "DH06" where codc_titul not in (select codc_titul from dh33)
 +
 
 +
ERROR: Hay codigo de entidad otorgante que estan en dh06 pero no estan en la tabla maestra de titulo dh34
 +
 
 +
SELECT * FROM "DH06" where codc_entot not in (select codc_entot from dh34) order by codc_entot
 +
 
 +
SOLUCION: Borrar via Pervasive:
 +
 
 +
  delete FROM "DH06" where codc_entot not in (select codc_entot from dh34)
 +
 
 +
*dm02
 +
 
 +
select * from dm02 where nroestudrealizad not in (select nroestudrealizado from dh06)
 +
 
 +
delete from dm02 where nroestudrealizad not in (select nroestudrealizado from dh06)
 +
 
 +
*ona_ofer
 +
 
 +
ERROR: Hay titulos (idtitulo) en tabla ona_ofer que no estan en tabla ona_titu
 +
 
 +
El error salta para cuando idtitulo=167 o idtitulo=175. Son 9 filas en tabla ona_ofer
 +
 
 +
SOLUCION:
 +
-Mandar pedido al SIU para que arregle las tablas (porque no se puede acceder a esta tablas via Pervasive ni via Sistema Pampa)
 +
-Solucion provisoria: borrar esos registros en el txt de los cvs generados.
 +
 
 +
*spu_carc: El cvs de esta tabla borrarlo porque ya no se usa.
 +
 
 +
EL 03/12/2012 LAS UNICAS TABLAS DEL PAMPA RHUN 10/2012 QUE SE ENCONTRARON CON ERROR Y QUE FUERON ACTUALIZADAS SON: DH06, DM02 Y DH92 QUE SE RESTAURO EL ARCHIVO DESDE MODULO DE UTILIDADES.
 +
 
 +
Se comienza la generacion de CVS pampa rhun 10/2012 a las 10:27 am.
 +
Termina la generacion de CVS pampa rhun 10/2012 a las 13:50 am.
 +
 
  
 
=Mapuche escritorio=
 
=Mapuche escritorio=
Esta instalado en la maquina de Vanesa en E:\mapuche_escritorio\mapuche.exe (us:diana pass:postgres)
+
Esta instalado en una Pc de escritorio
 
Para poder entrar con ese usuario o con cualquiera, hacen falta agregar permisos
 
Para poder entrar con ese usuario o con cualquiera, hacen falta agregar permisos
  abrír el esquema Mapuche
 
  ir a la tabla s_access
 
  insertar estos dos registros:
 
  28 | 15 | False
 
  28 | 16 | False
 
  
 
=Pruebas Mapuche=
 
=Pruebas Mapuche=
Línea 133: Línea 232:
 
Necesito generar de nuevo los cvs una vez cerrado el pampa
 
Necesito generar de nuevo los cvs una vez cerrado el pampa
 
===Sicoss===
 
===Sicoss===
En Mapuche entrar a Comunicacion-->AFIP-->SICOSS
 
=====Funcionamiento=====
 
*Prueba en hecha en junio 2011 con version Mapuche 1.12.1
 
Encontramos que no permite generar Sicoss para un periodo en particular como en el Pampa que te permite poner mes y año (en caso de no poner nada se genera todo).
 
  
El proceso de generacion Sicoss genera todo (mes actual y retroactivos en el mismo proceso), tira una ventana de previsualizacion de resultados y luego permite exportar los datos (los exporta en un txt para cada mes retroactivo).
 
  
Al generar los datos de retroactivos, toma los ultimos topes, o sea los que estan en la parte de configuracion de Mapuche: Configuracion-->Impositivos-->Parametros. No tiene para cargar los topes por mes, si se quiere esto hay que cargar los topes del mes que se quiere generar, generar (te genera todos los meses), exportar los archivos (genera un archivo por mes) y quedarme solo con los meses correspondientes al tope cargado. Luego ir a configuracion para cambiar de nuevo los topes al mes que queremos generar y hacer todo el proceso de nuevo. Asi sucesivamente, hasta que genere todos los meses retroactivos que quiera generar.
+
====Generacion de Sicoss====
 +
#ingresamos a mapuche LINK
 +
#
 +
====Configuración tope====
 +
#
 +
====Archivos Generados====
 +
#
 +
 
 +
 
 +
=====Funcionamiento=====
 +
======Prueba en hecha en junio 2011 con version Mapuche 1.12.1======
 +
Encontramos que no permite generar Sicoss para un periodo en particular como en el Pampa que te
 +
permite poner mes y año (en caso de no poner nada se genera todo).
 +
El proceso de generacion Sicoss genera todo (mes actual y retroactivos en el mismo proceso), tira una
 +
ventana de previsualizacion de resultados y luego permite exportar los datos (los exporta en un txt
 +
para cada mes retroactivo).
 +
Al generar los datos de retroactivos, toma los ultimos topes, o sea los que estan en la parte de
 +
configuracion de Mapuche: Configuracion-->Impositivos-->Parametros. No tiene para cargar los topes por
 +
mes, si se quiere esto hay que cargar los topes del mes que se quiere generar, generar (te genera
 +
todos los meses), exportar los archivos (genera un archivo por mes) y quedarme solo con los meses
 +
correspondientes al tope cargado. Luego ir a configuracion para cambiar de nuevo los topes al mes que
 +
queremos generar y hacer todo el proceso de nuevo. Asi sucesivamente, hasta que genere todos los meses
 +
retroactivos que quiera generar.
  
*Pedidos SIU
+
=====Pedidos SIU=====
   Pedimos al siu que mejoren este proceso para que hagan los topes por mes retroactivo.
+
   #Pedimos al siu que mejoren este proceso para que hagan los topes por mes retroactivo.
 
   http://comunidad.siu.edu.ar/index.php?topic=3433.msg13226#new
 
   http://comunidad.siu.edu.ar/index.php?topic=3433.msg13226#new
  
   Pedimos al siu que se fijen porque la generacion de Sicoss para todos los legajos se clava en Mapuche.
+
   #Pedimos al siu que se fijen porque la generacion de Sicoss para todos los legajos se clava en
 +
Mapuche.
 
   http://comunidad.siu.edu.ar/index.php?topic=3521.0
 
   http://comunidad.siu.edu.ar/index.php?topic=3521.0
  
   Pedimos al siu que nos que nos expliquen como hacen el calculo de Sicoss, citamos como ejemplo el legajo de Cdor. Font
+
   #Pedimos al siu que nos que nos expliquen como hacen el calculo de Sicoss, citamos como ejemplo el
 +
legajo de Cdor. Font
 
   http://comunidad.siu.edu.ar/index.php?topic=3529.0
 
   http://comunidad.siu.edu.ar/index.php?topic=3529.0
  
Línea 159: Línea 277:
 
=====Datos=====
 
=====Datos=====
 
===Generacion Recibos===
 
===Generacion Recibos===
 +
 +
En Mapuche la generacion de recibos se guarda en el esquema Mapuche, las tablas son: dhr1(analoga a recibo1 de pampa), dhr2(analoga a recibo2 de pampa), dhr3(analoga a recibo3 de pampa)
 +
 +
==Configuracion Parámetros de recibos==
 +
1)Ir a configuracion->parametros de recibos
 +
==Generacion de Recibos==
 +
 
===Acreditacion===
 
===Acreditacion===
 
===Apoyo banco===
 
===Apoyo banco===
Línea 179: Línea 304:
 
===Listado de Licencias sin goce para el area de licencias===
 
===Listado de Licencias sin goce para el area de licencias===
 
===Listado de incompatibilidades===
 
===Listado de incompatibilidades===
 +
 +
  
 
=Bugs encontrados en Mapuche=
 
=Bugs encontrados en Mapuche=
 +
 
* En Actualización-->Definicion de Liquidacion
 
* En Actualización-->Definicion de Liquidacion
 
El error es un query, en ese query se muestra un nro de liquidac. que tiene descipc. vacia. No anda si hay alguna liquidacion con descripcion vacia (no se si sera solo cuando la liquidacion esta abierta).
 
El error es un query, en ese query se muestra un nro de liquidac. que tiene descipc. vacia. No anda si hay alguna liquidacion con descripcion vacia (no se si sera solo cuando la liquidacion esta abierta).
Línea 187: Línea 315:
 
* En Servicios-->Acreditacion-->Generar
 
* En Servicios-->Acreditacion-->Generar
 
Cuando termina el proceso, hay un titulo Exportación para bancos, bno ahi el boton Volver no funciona
 
Cuando termina el proceso, hay un titulo Exportación para bancos, bno ahi el boton Volver no funciona
 +
 +
* Al hacer Generación de Acreditación, me da error en Reportes Remanentes (genera un pdf en otra ventana pero se abre en blanco)
 +
 +
*En Actualizacion-->Legajo al querer hacer una busqueda por CUIL de la persona, no funciona ese filtro ya que no me trae ningun dato.
 +
 +
= Trazabilidad Base de Datos Pampa-Mapuche =
 +
 +
== DH05 ==
 +
 +
    '''PAMPA'''                      '''MAPUCHE'''
 +
    ''nro_licenc'' ---------------> ''nro_licencia''
 +
    nro_legaj                  nro_legaj
 +
    nro_cargo                  nro_cargo
 +
    fec_desde                  fec_desde
 +
    fec_hasta                  fec_hasta
 +
    ''nrovarlice'' ---------------> ''nrovarlicencia''
 +
 +
== DL02 ==
 +
 +
    '''PAMPA'''                      '''MAPUCHE'''
 +
    ''nrovalice''  ---------------> ''nrovarlicencia''
 +
    ''codn_tipo_'' ---------------> ''codn_tipo_lic''
 +
 +
== DH02 ==
 +
 +
En Mapuche y Pampa estan los mismos campos (falta verificar los nombres si son =) pero el campo chk_ganan de Pampa no esta en dh02 de Mapuche.
 +
 +
= Tablas de manejo de usuarios y perfiles en Base de Datos Mapuche =
 +
 +
Estas tablas estan dentro del esquema toba_mapuche
 +
 +
*apex_usuarios: Datos proppios de cada usuario
 +
 +
Campos:
 +
 +
-usuario: es el id del usuario. Actualmente es el nro de cuil de la persona
 +
 +
-clave:
 +
 +
-nombre:
 +
 +
-email:
 +
 +
-etc. etc, etc
 +
 +
*apex_usuario_grupo_acc: Perfiles Funcionales
 +
 +
Campos:
 +
 +
-proyecto:
 +
 +
-usuario_grupo_acc: id del perfil funcional
 +
 +
-nombre:
 +
 +
-nivel_acceso:
 +
 +
-etc. etc, etc
 +
 +
 +
*apex_usuario_grupo_acc_item: Permisos por Perfil Funcional
 +
 +
*apex_usuario_grupo_acc_miembros: Perfiles Funcional anidados (perfiles funcionales que pertenecen a un perfil funcional padre)
 +
 +
*apex_usuarios_perfil_datos: Perfiles de Datos
 +
 +
Campos:
 +
 +
-proyecto:
 +
 +
-usuario_perfil_datos: id del perfil
 +
 +
-nombre:
 +
 +
-descripcion:
 +
 +
-listar:
 +
 +
*apex_usuarios_perfil_datos_dim: Perfiles de Datos por Dimension
 +
 +
Campos:
 +
 +
-usuario_perfil_datos: id del perfil
 +
 +
-dimension: es unica en Mapuche por ahora, siempre es 13 y significa que el perfil de datos se hace por dependencia
 +
 +
-elemento= NO SE AUN
 +
 +
-clave: cada una de las dependencias CREOOOOO (NO SE QUE TABLA MAESTRA DE DEPENDENCIAS MIRA PARA TOMAR LA DIMENSION DEPENDENCIA)
 +
 +
*apex_usuario_proyecto: Perfil Funcional por Usuario
 +
 +
Campos:
 +
 +
-proyecto:
 +
 +
-usuario_grupo_acc: id del perfil funcional asociado
 +
 +
-usuario: Actualmente es el nro de cuil de la persona ()
 +
 +
-usuario_perfil_datos: Actualmente esta en NULL
 +
 +
*apex_usuario_proyecto_perfil_datos: Perfil de Datos por Usuario
 +
 +
Campos:
 +
 +
-proyecto:
 +
 +
-usuario_perfil_datos: id del perfil de datos
 +
 +
-usuario: Actualmente es el nro de cuil de la persona ()
 +
 +
=Ubicacion fisica de reportes en servidor Mapuche=
 +
 +
Donde estan fisicamente los reportes?
 +
 +
-En version del año 2011:
 +
 +
*Reportes estandar:
 +
/servers/produccion/mapuche/aplicacion/php/modelos/impresion/pdf/plantillas/reportes/novedades/movimientos
 +
*Imagenes de los reportes estandar:
 +
/servers/produccion/mapuche/aplicacion/php/modelos/impresion/pdf/soporte/images
 +
*Reportes personalizados:
 +
/servers/produccion/mapuche/aplicacion/personalizacion/plantillas/reportes/novedades/movimientos
 +
*Imagenes de los reportes personalizados:
 +
/servers/produccion/mapuche/aplicacion/personalizacion/soporte/image
 +
 +
-En version del año 2013:
 +
 +
./mapuche/mapuche/aplicacion/php/modelos/generacion/recursos/imagenes/
 +
 +
=Consulta sql para relacionar datos desde 2 bases de postgres distintas=
 +
 +
Esto en Postgres solo es posible hacerlo instalando DBLink en un cliente (no en el server, por ej. en una maquina local). Me conecto a una base local en mi compu (donde tengo instalado DBLink) y alli ejecuto las consultas relacionando con las bases en el servidor.
 +
 +
* Cant de movimientos (desde el log) por dep, por tipo de movimiento
 +
 +
select id_dep,auditoria_operacion,count(*) as cant
 +
from
 +
dblink('dbname=mapuche201309asig hostaddr=200.16.30.7 user=postgres
 +
password=xxxx port=5432','SELECT
 +
auditoria_usuario,auditoria_operacion,auditoria_fecha
 +
FROM mapuche_auditoria.logs_dh02') as log02(auditoria_usuario  character
 +
varying(30),auditoria_operacion  character(1),auditoria_fecha timestamp
 +
without time zone),
 +
dblink('dbname=mapucheusuariosasig hostaddr=200.16.30.7 user=postgres
 +
password=xxxx port=5432','SELECT usuario,nombre FROM
 +
toba_mapuche.apex_usuario') as apex_usu(usuario character
 +
varying(60),nombre text),
 +
dblink('dbname=mapucheusuariosasig hostaddr=200.16.30.7 user=postgres
 +
password=xxxx port=5432','SELECT usuario_perfil_datos,usuario FROM
 +
toba_mapuche.apex_usuario_proyecto_perfil_datos') as
 +
apex_perfil_datos(id_perfil_datos bigint,usu character varying(60)),
 +
dblink('dbname=mapucheusuariosasig hostaddr=200.16.30.7 user=postgres
 +
password=xxxx port=5432','SELECT usuario_perfil_datos,clave FROM
 +
toba_mapuche.apex_usuario_perfil_datos_dims') as
 +
apex_perfil_datosxdep(id_perfil_datos bigint,id_dep text)
 +
where log02.auditoria_usuario=apex_usu.usuario and
 +
apex_usu.usuario=apex_perfil_datos.usu and
 +
apex_perfil_datos.id_perfil_datos=apex_perfil_datosxdep.id_perfil_datos
 +
group by id_dep,auditoria_operacion
 +
order by id_dep,auditoria_operacion
 +
 +
=Perfiles Funcionales=
 +
Se guardan tanto en la base de datos (dentro del esquema toba_usuarios) como tambien en archivos php.
 +
 +
Ejemplo del directorio:
 +
/201305_v1.21.3_dgti/mapuche/aplicacion/metadatos_compilados/gene/
 +
 +
Dentro de esa carpeta, los archivos que guarda son:
 +
 +
*toba_mc_gene__grupo_admin.php
 +
*toba_mc_gene__grupo_data_admin.php
 +
 +
=Tablas a tocar cuando quiero borrar un concepto en Mapuche=
 +
 +
*dh12 (histor-->dh62)
 +
*dh13 (histor-->dh63)
 +
*dh14
 +
*dh15
 +
*dh16
 +
*dh22
 +
*dh23
 +
 +
=Creacion de Usuarios Mapuche=
 +
 +
==Con Mapuches con OpendId==
 +
Hay que entrar al Toba, crear un nuevo usuario y ponerle la clave P3rs3v3r4.Y.Tr1unf4r4s, sin importar que usuario sea....a TODOS la misma clave.

Revisión actual del 10:44 29 jun 2016

Instalación de aplicaciones para Mapuche

Usuario SIU-Mapuche

Estructura Escritorio SIU-Mapuche

Documentacion Mapuche

Primeras pruebas con el Sistema Mapuche

Contenido

2013/04

Caracteristicas del servidor USO EXCLISVO
  -Cpu  Intel(R) Core(TM) i5 CPU 750  @ 2.67GHz
 -Memoria 8GB ddr3 ( 1333 MHz)
 -Disco del sistema operativo de 160GB sata
 -Discos del raid 1+0 4 discos sata de 640 gb
 -Datos de la instalacion de mapuche y postgres:
 -sistema mapche en disco sata (junto con sistem aoperativo)
  base de postgres en otros discos con con raid 1+0 sata (espejado+velocidad) con log
  de la base en otro disco (el del sistema mapuche)
Sistema operativo
 -Debian 5.0.8
 -Version de apache 2.2.9
 -Version de php  5.2.6-1
 -Version de postgres 8.3.13
Version Mapuche
 -1.18.0
Mes Año Pampa
 - 201209

Migracion Mapuche

Pasos:

1- Reindexacion archivo cuentas Bancarias

Consiste en restaurar el archivo dh92.dat (porque tiene los identificadores unicos en 0 por haber sido reimportado...esto renumero el id), desde el modulo utilidades de Pampa ir el menu Procesos-->Restaurar Archivos. Siempre hacer esto antes de generar CVS.

2- Arreglar errores frecuentes que se dan en la migracion, por incosnsistencias y/o diferencias en el funcionamiento de ambos sistema(Pampa vs. Mapuche)

Para ello:

a) Crear una carpeta en T:\MAPUCHE\migracion que se llame AAAAMM

b) Copiar alli el archivo que esta en:

T:\MAPUCHE\migracion\errores_grales.txt

c) Ejecutar los scripts que estan en ese archivo y anotar debajo de cada consulta cuantos registros se modificaron luego de cada update.

3- Arreglar en Pampa errores de Migracion del Mes anterior

Consiste en tomar los errores de la tabla migracion_borrados del esquema public en postgres en Mapuche del mes anterior y en base al detalle del error entrar a Pervasive en la coneccion con el Pampa central del mes actual y ejecutar consultas sql y update para modificar. Entrar a postgres desde 200.16.30.7/Pg

Consulta1: Para saber en que tablas hubo errores

select distinct tabla from migracion_borrados	

Consulta2: Para arreglar los errores de cada tabla que tiro error (siempre escribir el nombre de la tabla en minuscula)

select* from migracion_borrados where tabla='dha1'

4- Generacion cvs Pampa

5- Revision Errores de Generacion CVS Pampa

Consiste en revisar el archivo exporta.txt (creado al generar CVS) y analizar lor errores que genera y si dio algun error arrgelarlo via Pervasive y volver a generar los CVSs de solo los archivos .dat que se tocaron.

7- Copiar los archivos CVS

  • Copiar via explorador de archivos los CVS generados a T:\MAPUCHE\CVS\
  • Entrar x ftp al servidor donde trabajamos y de alli copiar los CVS generados a a la carpeta /lmanjarres/mapuche/POSTGRES/

8- Preparar el entorno y migrar

 Crear la Base
 Crear usuario
 Crear el esquema siu

9- Ejecutar scripts de migracion

  • Ejecutar Migracion
  • Ejecutar Tablas
  • Ejecutar Copy
  • Ejecutar Funcion de Migracion
  • Ejecutar Indices: psql siu –f Pampa_Indices.sql –o Migración_Resultados_paso4.txt –U pampa 2>err_paso4.txt

Instalacion Mapuche

Proceso de Instalacion

  • Copiar el instalador de mapuche al root del servidor (/var/www) y descomprimirlo o copiar la carpeta ya descomprimida.
  • Ejecutar el instalador
  • Si la instalacion es completa seguir todos los pasos.


Servidores

172.18.230.20 (SEIYA o 122 en 2ºPiso)- postgres 9.2 o 3   
192.168.19.42 (Postgres 02 en 6ºPiso) - MV
- NO EXITE MAS - *192.168.10.137 (servidor de computos 2do piso). Datos para entrar a administrar el servidor--> passw: *******
- NO EXISTE MAS -*200.16.30.7 (servidor de computos en el 6to piso).Datos para entrar a administrar el servidor--> passw: *******

Como ingresar a Mapuche

Mapuche produccion

En un navegador poner http://<ip_servidor>/siu/mapuche/

  • Usuario de Mapuche: mapuche
  • Passw de Mapuche: *******

Mapuche migracion

En un navegador poner http://<ip_servidor>/siu_migracion/mapuche/

  • Usuario de Mapuche: mapuche
  • Passw de Mapuche: *******

Errores

Errores al ejecutar Migracion

Errores generados hasta correr el PampaCoy.sql, antes de la funcion de la migracion=

  • dh23:
 linea 36550, nro_liqui=846 tiene valor nulo en el campo codn_conce
 linea 37352, nro_liqui=869 tiene valor nulo en el campo codn_conce
  • dh92: Clave duplicada, regenerar el archivo via modulo de Utilidades para regenerar el campo clave que es un autonumerico.
  • do01: Hay valores nulos en el campo codc_regio (tercer campo, reemplazar x "000")
  • dh41: Claves duplicadas (legajo, mes ano)
  • spu_vnci: Valor nulo en campo desc_abrev, linea 1
  • spu_ipco: Valor nulo para campo ano_retro

Errores de tabla migracion_borrados: datos del 09/2012 a la fecha 29/11/2012=

  • dh05: valores nulos en campo fec_desde
Detectar el error: 
 select nro_licencia,nro_legaj,nro_cargo, fec_desde, fec_hasta
 FROM pampa.dh05
 where fec_desde is NULL
Corregir el error via postgres: 
 delete FROM pampa.dh05
 where fec_desde is NULL
  • dh16

El error que tira en general es que hay un concepto que esta en dh16 y no esta en dh12

SELECT * FROM "DH16" where codn_conce not in (select codn_conce from dh12)

SOLUCION: borrar de dh16 los conceptos que no estan en dh12

  • dh23

El error que tira en general es que hay un concepto que esta en dh23 y no esta en dh12

SELECT * FROM "DH23" where codn_conce not in (select codn_conce from dh12)

SOLUCION: borrar de dh23 los conceptos que no estan en dh12

  • dha1

Codigo de provincia+codigo postal+codigo repetidos tiene que estar en DHA4 (dha1::codigo_repetidos codigo_provincia codigo_postal -> dha4::codigo_repetidos codigo_provincia codigo_postal)

SOLUCION Los errores saltan para cuando en dha1 el codigo_provincia='XX',codigo_postal=5000,codigo_repetidos='00', pero estan esos codigos en la tabla dha4. NO PUDIMOS DETECTAR COMO ARREGLAR EL ERROR

  • dl15

Error: dl15::nro_licencia -> dh05::nro_licencia (permite nulo: S)

El campo dl15.nro_licencia es un identificador unico. En los campos que tienen error es porque dl15.nro_licencia=0. Son los casos que se hace el calculo de LAO via Pampa, que genera una entrada en DL15 pero no genera bien ese campo.

SELECT * FROM "Dl15" where periodo=2011 and nro_licencia not in (select nro_licencia from dh05)

SELECT max(nro_licencia) FROM "Dl15"

SELECT * FROM "DL15" where nro_legajo=29978

SELECT * FROM "DL15" where tipo_mov='CAL' AND NRO_LICENCIA IN (SELECT NRO_LICENCIA FROM DH05) ORDER BY NRO_LEGAJO

SOLUCION1= Aun no se si es una solucion valida (lo que hice fue poner algun nro_licencia ya existente en dh05)

SELECT fecha_mov,fecha_hasta,periodo,nro_liquidacion,nro_licencia FROM dl15 where nro_licencia=0 and tipo_mov='CAL' and observaciones='AJUSTE'

update dl15 set nro_licencia=139457 where nro_licencia=0 and tipo_mov='CAL' and observaciones='AJUSTE'

SOLUCION2=Tengo que probar si con esta solucion no salta el error luego de hecha la migracion. Pareceria ser la solucion mas viable porque en teoria cuando se hace el calculo de LAO se genera un registro en dl15 con el nro_licencia en nulo

update "DL15" set nro_licencia=null where nro_licencia=0

  • dh06

ERROR: Hay codigo de titulo que estan en dh06 pero no estan en la tabla maestra de titulo dh33

SOLUCION: Borrar en dh06 los titulos esos invalidos (entrando al Pampa y borrar a mano). Los legajos son:

 -28354, codc_titul=TSD
 -48520, codc_titul=LMAT

SELECT * FROM "DH06" where codc_titul not in (select codc_titul from dh33)

delete FROM "DH06" where codc_titul not in (select codc_titul from dh33)

ERROR: Hay codigo de entidad otorgante que estan en dh06 pero no estan en la tabla maestra de titulo dh34

SELECT * FROM "DH06" where codc_entot not in (select codc_entot from dh34) order by codc_entot

SOLUCION: Borrar via Pervasive:

 delete FROM "DH06" where codc_entot not in (select codc_entot from dh34)
  • dm02

select * from dm02 where nroestudrealizad not in (select nroestudrealizado from dh06)

delete from dm02 where nroestudrealizad not in (select nroestudrealizado from dh06)

  • ona_ofer

ERROR: Hay titulos (idtitulo) en tabla ona_ofer que no estan en tabla ona_titu

El error salta para cuando idtitulo=167 o idtitulo=175. Son 9 filas en tabla ona_ofer

SOLUCION: -Mandar pedido al SIU para que arregle las tablas (porque no se puede acceder a esta tablas via Pervasive ni via Sistema Pampa) -Solucion provisoria: borrar esos registros en el txt de los cvs generados.

  • spu_carc: El cvs de esta tabla borrarlo porque ya no se usa.

EL 03/12/2012 LAS UNICAS TABLAS DEL PAMPA RHUN 10/2012 QUE SE ENCONTRARON CON ERROR Y QUE FUERON ACTUALIZADAS SON: DH06, DM02 Y DH92 QUE SE RESTAURO EL ARCHIVO DESDE MODULO DE UTILIDADES.

Se comienza la generacion de CVS pampa rhun 10/2012 a las 10:27 am. Termina la generacion de CVS pampa rhun 10/2012 a las 13:50 am.


Mapuche escritorio

Esta instalado en una Pc de escritorio Para poder entrar con ese usuario o con cualquiera, hacen falta agregar permisos

Pruebas Mapuche

Procesos PosLiquidacion

Necesito generar de nuevo los cvs una vez cerrado el pampa

Sicoss

Generacion de Sicoss

#ingresamos a mapuche LINK
#

Configuración tope

#

Archivos Generados

#


Funcionamiento
Prueba en hecha en junio 2011 con version Mapuche 1.12.1
Encontramos que no permite generar Sicoss para un periodo en particular como en el Pampa que te
permite poner mes y año (en caso de no poner nada se genera todo).
El proceso de generacion Sicoss genera todo (mes actual y retroactivos en el mismo proceso), tira una
ventana de previsualizacion de resultados y luego permite exportar los datos (los exporta en un txt
para cada mes retroactivo).
Al generar los datos de retroactivos, toma los ultimos topes, o sea los que estan en la parte de
configuracion de Mapuche: Configuracion-->Impositivos-->Parametros. No tiene para cargar los topes por
mes, si se quiere esto hay que cargar los topes del mes que se quiere generar, generar (te genera
todos los meses), exportar los archivos (genera un archivo por mes) y quedarme solo con los meses
correspondientes al tope cargado. Luego ir a configuracion para cambiar de nuevo los topes al mes que
queremos generar y hacer todo el proceso de nuevo. Asi sucesivamente, hasta que genere todos los meses
retroactivos que quiera generar.
Pedidos SIU
 #Pedimos al siu que mejoren este proceso para que hagan los topes por mes retroactivo.
 http://comunidad.siu.edu.ar/index.php?topic=3433.msg13226#new
 #Pedimos al siu que se fijen porque la generacion de Sicoss para todos los legajos se clava en
Mapuche.
 http://comunidad.siu.edu.ar/index.php?topic=3521.0
 #Pedimos al siu que nos que nos expliquen como hacen el calculo de Sicoss, citamos como ejemplo el
legajo de Cdor. Font
 http://comunidad.siu.edu.ar/index.php?topic=3529.0
Datos

No tenemos datos de errores producidos para probar. Juan deberia informarnos esto.

Sicore

Funcionamiento
Datos

Generacion Recibos

En Mapuche la generacion de recibos se guarda en el esquema Mapuche, las tablas son: dhr1(analoga a recibo1 de pampa), dhr2(analoga a recibo2 de pampa), dhr3(analoga a recibo3 de pampa)

Configuracion Parámetros de recibos

1)Ir a configuracion->parametros de recibos

Generacion de Recibos

Acreditacion

Apoyo banco

Salida de terceros (Dasou, Gremios, Seguro de vida, etc)

Certificacion de servicios prestados por dependencia (mensualmente)

Pilaga

O3

Rhun

Relacion con el sistema (SIFLA) de Andrea

Procesos que van desde la Concentrac. hasta Liquidacion

Liquidacion en Pampa esritorio

Funcionamiento
Datos

Calculo Cuarta Categoria

Funcionamiento

Probar en Pampa escritorio

Importacion de Terceros

Incorporac. de ctas. bancarias y pedido de ctas. nvas.

Listado de Licencias sin goce para el area de licencias

Listado de incompatibilidades

Bugs encontrados en Mapuche

  • En Actualización-->Definicion de Liquidacion

El error es un query, en ese query se muestra un nro de liquidac. que tiene descipc. vacia. No anda si hay alguna liquidacion con descripcion vacia (no se si sera solo cuando la liquidacion esta abierta). Lo solucione agregando la descripcion al nro de liquidacion que me salto el error.

  • En Servicios-->Acreditacion-->Generar

Cuando termina el proceso, hay un titulo Exportación para bancos, bno ahi el boton Volver no funciona

  • Al hacer Generación de Acreditación, me da error en Reportes Remanentes (genera un pdf en otra ventana pero se abre en blanco)
  • En Actualizacion-->Legajo al querer hacer una busqueda por CUIL de la persona, no funciona ese filtro ya que no me trae ningun dato.

Trazabilidad Base de Datos Pampa-Mapuche

DH05

    PAMPA                       MAPUCHE
    nro_licenc ---------------> nro_licencia
    nro_legaj                   nro_legaj
    nro_cargo                   nro_cargo
    fec_desde                   fec_desde
    fec_hasta                   fec_hasta
    nrovarlice ---------------> nrovarlicencia

DL02

    PAMPA                       MAPUCHE
    nrovalice  ---------------> nrovarlicencia
    codn_tipo_ ---------------> codn_tipo_lic

DH02

En Mapuche y Pampa estan los mismos campos (falta verificar los nombres si son =) pero el campo chk_ganan de Pampa no esta en dh02 de Mapuche.

Tablas de manejo de usuarios y perfiles en Base de Datos Mapuche

Estas tablas estan dentro del esquema toba_mapuche

  • apex_usuarios: Datos proppios de cada usuario

Campos:

-usuario: es el id del usuario. Actualmente es el nro de cuil de la persona

-clave:

-nombre:

-email:

-etc. etc, etc

  • apex_usuario_grupo_acc: Perfiles Funcionales

Campos:

-proyecto:

-usuario_grupo_acc: id del perfil funcional

-nombre:

-nivel_acceso:

-etc. etc, etc


  • apex_usuario_grupo_acc_item: Permisos por Perfil Funcional
  • apex_usuario_grupo_acc_miembros: Perfiles Funcional anidados (perfiles funcionales que pertenecen a un perfil funcional padre)
  • apex_usuarios_perfil_datos: Perfiles de Datos

Campos:

-proyecto:

-usuario_perfil_datos: id del perfil

-nombre:

-descripcion:

-listar:

  • apex_usuarios_perfil_datos_dim: Perfiles de Datos por Dimension

Campos:

-usuario_perfil_datos: id del perfil

-dimension: es unica en Mapuche por ahora, siempre es 13 y significa que el perfil de datos se hace por dependencia

-elemento= NO SE AUN

-clave: cada una de las dependencias CREOOOOO (NO SE QUE TABLA MAESTRA DE DEPENDENCIAS MIRA PARA TOMAR LA DIMENSION DEPENDENCIA)

  • apex_usuario_proyecto: Perfil Funcional por Usuario

Campos:

-proyecto:

-usuario_grupo_acc: id del perfil funcional asociado

-usuario: Actualmente es el nro de cuil de la persona ()

-usuario_perfil_datos: Actualmente esta en NULL

  • apex_usuario_proyecto_perfil_datos: Perfil de Datos por Usuario

Campos:

-proyecto:

-usuario_perfil_datos: id del perfil de datos

-usuario: Actualmente es el nro de cuil de la persona ()

Ubicacion fisica de reportes en servidor Mapuche

Donde estan fisicamente los reportes?

-En version del año 2011:

  • Reportes estandar:

/servers/produccion/mapuche/aplicacion/php/modelos/impresion/pdf/plantillas/reportes/novedades/movimientos

  • Imagenes de los reportes estandar:

/servers/produccion/mapuche/aplicacion/php/modelos/impresion/pdf/soporte/images

  • Reportes personalizados:

/servers/produccion/mapuche/aplicacion/personalizacion/plantillas/reportes/novedades/movimientos

  • Imagenes de los reportes personalizados:

/servers/produccion/mapuche/aplicacion/personalizacion/soporte/image

-En version del año 2013:

./mapuche/mapuche/aplicacion/php/modelos/generacion/recursos/imagenes/

Consulta sql para relacionar datos desde 2 bases de postgres distintas

Esto en Postgres solo es posible hacerlo instalando DBLink en un cliente (no en el server, por ej. en una maquina local). Me conecto a una base local en mi compu (donde tengo instalado DBLink) y alli ejecuto las consultas relacionando con las bases en el servidor.

  • Cant de movimientos (desde el log) por dep, por tipo de movimiento

select id_dep,auditoria_operacion,count(*) as cant from dblink('dbname=mapuche201309asig hostaddr=200.16.30.7 user=postgres password=xxxx port=5432','SELECT auditoria_usuario,auditoria_operacion,auditoria_fecha FROM mapuche_auditoria.logs_dh02') as log02(auditoria_usuario character varying(30),auditoria_operacion character(1),auditoria_fecha timestamp without time zone), dblink('dbname=mapucheusuariosasig hostaddr=200.16.30.7 user=postgres password=xxxx port=5432','SELECT usuario,nombre FROM toba_mapuche.apex_usuario') as apex_usu(usuario character varying(60),nombre text), dblink('dbname=mapucheusuariosasig hostaddr=200.16.30.7 user=postgres password=xxxx port=5432','SELECT usuario_perfil_datos,usuario FROM toba_mapuche.apex_usuario_proyecto_perfil_datos') as apex_perfil_datos(id_perfil_datos bigint,usu character varying(60)), dblink('dbname=mapucheusuariosasig hostaddr=200.16.30.7 user=postgres password=xxxx port=5432','SELECT usuario_perfil_datos,clave FROM toba_mapuche.apex_usuario_perfil_datos_dims') as apex_perfil_datosxdep(id_perfil_datos bigint,id_dep text) where log02.auditoria_usuario=apex_usu.usuario and apex_usu.usuario=apex_perfil_datos.usu and apex_perfil_datos.id_perfil_datos=apex_perfil_datosxdep.id_perfil_datos group by id_dep,auditoria_operacion order by id_dep,auditoria_operacion

Perfiles Funcionales

Se guardan tanto en la base de datos (dentro del esquema toba_usuarios) como tambien en archivos php.

Ejemplo del directorio: /201305_v1.21.3_dgti/mapuche/aplicacion/metadatos_compilados/gene/

Dentro de esa carpeta, los archivos que guarda son:

  • toba_mc_gene__grupo_admin.php
  • toba_mc_gene__grupo_data_admin.php

Tablas a tocar cuando quiero borrar un concepto en Mapuche

  • dh12 (histor-->dh62)
  • dh13 (histor-->dh63)
  • dh14
  • dh15
  • dh16
  • dh22
  • dh23

Creacion de Usuarios Mapuche

Con Mapuches con OpendId

Hay que entrar al Toba, crear un nuevo usuario y ponerle la clave P3rs3v3r4.Y.Tr1unf4r4s, sin importar que usuario sea....a TODOS la misma clave.