Diferencia entre revisiones de «Mapuche»

De Wiki
Saltar a: navegación, buscar
(Procesos PosLiquidacion)
 
(No se muestran 192 ediciones intermedias de 5 usuarios)
Línea 1: Línea 1:
 +
[[Instalación Mapuche|Instalación de aplicaciones para Mapuche]]
 +
 +
[[Usuario SIU-Mapuche]]
 +
 +
[[Estructura Escritorio SIU-Mapuche]]
 +
 +
[[Documentacion Mapuche]]
 +
 
Primeras pruebas con el Sistema Mapuche
 
Primeras pruebas con el Sistema Mapuche
 +
 +
==2013/04==
 +
Caracteristicas del servidor USO EXCLISVO
 +
  -Cpu  Intel(R) Core(TM) i5 CPU 750  @ 2.67GHz
 +
  -Memoria 8GB ddr3 ( 1333 MHz)
 +
  -Disco del sistema operativo de 160GB sata
 +
  -Discos del raid 1+0 4 discos sata de 640 gb
 +
  -Datos de la instalacion de mapuche y postgres:
 +
  -sistema mapche en disco sata (junto con sistem aoperativo)
 +
  base de postgres en otros discos con con raid 1+0 sata (espejado+velocidad) con log
 +
  de la base en otro disco (el del sistema mapuche)
 +
 +
Sistema operativo
 +
  -Debian 5.0.8
 +
  -Version de apache 2.2.9
 +
  -Version de php  5.2.6-1
 +
  -Version de postgres 8.3.13
 +
 +
Version Mapuche
 +
  -1.18.0
 +
Mes Año Pampa
 +
  - 201209
  
 
=Migracion Mapuche=
 
=Migracion Mapuche=
==Cositas utiles==
+
Pasos:
===Restaurar Postgres===
+
 
Ir al /etc/init.d/postgresql-8.3 restart
+
1- Reindexacion archivo cuentas Bancarias
===Tocar el archivo de configuracion de Postgres===
+
 
En la linea de comando:
+
Consiste en restaurar el archivo dh92.dat (porque tiene los identificadores unicos en 0 por haber sido reimportado...esto renumero el id), desde el modulo utilidades de Pampa ir el menu Procesos-->Restaurar Archivos. Siempre hacer esto antes de generar CVS.
mcedit /etc/postgresql/8.3/main/postgresql.conf
+
 
===Editar archivos en linux===
+
2- Arreglar errores frecuentes que se dan en la migracion, por incosnsistencias y/o diferencias en el funcionamiento de ambos sistema(Pampa vs. Mapuche)
Escribir mcedit o mc en la linea de comandos
+
 
===Hacer un dump de la base===
+
Para ello:
  pg_dump -U postgres siu > bd_cordoba.sql
+
 
 +
a) Crear una carpeta en T:\MAPUCHE\migracion que se llame AAAAMM
 +
 
 +
b) Copiar alli el archivo que esta en:
 +
 
 +
T:\MAPUCHE\migracion\errores_grales.txt
 +
 
 +
c) Ejecutar los scripts que estan en ese archivo y anotar debajo de cada consulta cuantos registros se modificaron luego de cada update.  
 +
 
 +
3- Arreglar en Pampa errores de Migracion del Mes anterior
 +
 
 +
Consiste en tomar los errores de la tabla migracion_borrados del esquema public en postgres en Mapuche del mes anterior y en base al detalle del error entrar a Pervasive en la coneccion con el Pampa central del mes actual y ejecutar consultas sql y update para modificar. Entrar a postgres desde 200.16.30.7/Pg
 +
 
 +
Consulta1:
 +
Para saber en que tablas hubo errores
 +
 
 +
select distinct tabla from migracion_borrados
 +
 
 +
Consulta2:
 +
Para arreglar los errores de cada tabla que tiro error (siempre escribir el nombre de la tabla en minuscula)
 +
 
 +
select* from migracion_borrados where tabla='dha1'
 +
 
 +
4- Generacion cvs Pampa
 +
 
 +
5- Revision Errores de Generacion CVS Pampa
 +
 
 +
Consiste en revisar el archivo exporta.txt (creado al generar CVS) y analizar lor errores que genera y si dio algun error arrgelarlo via Pervasive y volver a generar los CVSs de solo los archivos .dat que se tocaron.
  
==Generar los CVS==
+
7- Copiar los archivos CVS
===Antes de generar===
 
*Ir al modulo de Utilidades y restaurar el archivo dh92, porque tiene los identificadores unicos en 0, esto los autonumera.
 
*Crear un archivo dh41.cvs en blanco y pisar el que tiene datos hasta que se eliminen los registros de clave duplicada en dh41.
 
*Crear un archivo dho01.cvs en blanco y pisar el que esta hasta que se rellene los valores nulos del campo codc_regio(tercera columna), por ejemplo con un valor "000".
 
  
Controlar via consulta Pervasive que no existan estos errores:
+
*Copiar via explorador de archivos los CVS generados a   T:\MAPUCHE\CVS\
*dh23: Controlar que no haya valores nulos en el campo codn_conce
+
*Entrar x ftp al servidor donde trabajamos y de alli copiar los CVS generados a a la carpeta /lmanjarres/mapuche/POSTGRES/
   SELECT * FROM "DH23" where codn_conce IS NULL
 
*spu_vnci: Controlar que no exista ningun valor nulo en campo desc_abrev.
 
  SELECT * FROM "spu_vnci" where desc_abrev IS NULL
 
  
===Antes de comenzar el Proceso de Migracion===
+
8- Preparar el entorno y migrar
*Opcion1:
+
  Crear la Base
Editar el archivo Pampa_Copy.sql y cambiar la ruta "/tmp/" por "/home/lmanjarres/mapuche/POSTGRES/"
+
  Crear usuario
 +
  Crear el esquema siu
  
*Opcion2:
+
9- Ejecutar scripts de migracion
Se recomienda crear en el directorio RRHH el archivo POSTGRE.INI informando el Path en el que estarán todos los archivos con los datos del sistema SIU-Pampa que serán importados a la base PostgreSQL mediante la sentencia COPY de la base:
 
  
[Generacion]
+
*Ejecutar Migracion
PathCopy = {Escribir aquí por ejemplo: /tmp/pampa/ }
+
*Ejecutar Tablas
 +
*Ejecutar Copy
 +
*Ejecutar Funcion de Migracion
 +
*Ejecutar Indices: psql siu –f Pampa_Indices.sql –o Migración_Resultados_paso4.txt –U pampa 2>err_paso4.txt
  
===Generar CVS===
+
=Instalacion Mapuche=
En el modulo Intercambio, menu
+
==Proceso de Instalacion==
*Procesos--> Generación Completa a PostgreSQL-->Esquema de Tablas
+
*Copiar el instalador de mapuche al root del servidor (/var/www) y descomprimirlo o copiar la carpeta ya descomprimida.
*Procesos--> Generación Completa a PostgreSQL-->Datos en formato texto
+
*Ejecutar el instalador
*Procesos--> Generación Completa a PostgreSQL-->Script para Importacion
+
*Si la instalacion es completa seguir todos los pasos.
*Procesos--> Generación Completa a PostgreSQL-->Script para Migracion SUI-Pampa
+
*Procesos--> Generación Completa a PostgreSQL-->Esquema de Indices y Relaciones
 
  
==Proceso de Migracion==
+
=Servidores=
===Generar y copiar los archivos CVS===
+
172.18.230.20 (SEIYA o 122 en 2ºPiso)- postgres 9.2 o 3    
*Entrar x ftp al servidor donde trabajamos que es: 192.168.10.137
+
192.168.19.42 (Postgres 02 en 6ºPiso) - MV
*Copiar via explorador de archivos los CVS generados que se encuentran en (192.168.19.31) W:\pampa\rrhh\EXPORTAR\POSTGRE a   T:\MAPUCHE\CVS\
 
Para los archivos que dan error al importar como dh41, borrar el dh41.cvs y crear un nuevo archivo con ese nombre pero vacio en T:\MAPUCHE\CVS\.
 
*y de alli copiarlos via ftp del servidor 192.168.10.137 a la carpeta /lmanjarres/mapuche/POSTGRES/
 
===Preparar el entorno y migrar===
 
* Entrar a puty al servidor 192.168.10.137
 
====Logueo====
 
*loguearme como usuario lmanjarres (pasw: termo31)
 
*Luego entrar como root, para ello escribir en la linea de comandos: su (passw: solECOfi)
 
*Luego me logueo como usuario postgres: su postgres
 
  
====Crear la Base====
+
- NO EXITE MAS - *192.168.10.137 (servidor de computos 2do piso). Datos para entrar a administrar el servidor--> passw: *******
 +
- NO EXISTE MAS -*200.16.30.7 (servidor de computos en el 6to piso).Datos para entrar a administrar el servidor--> passw: *******
  
Renombrar la base siu que ya existe desde pgAdmin
+
=Como ingresar a Mapuche=
  createdb siu --encoding=”SQL-ASCII” –U postgres
+
==Mapuche produccion==
====Crear usuario====
+
En un navegador poner http://<ip_servidor>/siu/mapuche/
  createuser -a -d -P pampa –U postgres
+
*Usuario de Mapuche: mapuche
====Crear e esquema====
+
*Passw de Mapuche: *******
    psql siu –U postgres
 
    create schema pampa authorization pampa;
 
    alter user pampa set search_path to pampa, public;
 
    \q
 
  
====Ejecutar scripts====
+
==Mapuche migracion==
para ello moverme al directorio: cd /home/lmanjarres/mapuche/POSTGRES
+
En un navegador poner http://<ip_servidor>/siu_migracion/mapuche/
*Migracion: psql siu –f Migracion_Pampa.sql –o Migración_Resultados_paso1.txt –U pampa 2>err_paso1.txt
+
*Usuario de Mapuche: mapuche
  Verificar que se hizo en el archivo de resultados (mcedit Migración_Resultados_paso1.txt)
+
*Passw de Mapuche: *******
  Verificar los errores en el archivo de error (mcedit err_paso1.txt)
 
*Tablas: psql siu –f Pampa_Tablas.sql –o Migración_Resultados_paso2.txt –U pampa 2>err_paso2.txt
 
  Verificar que se hizo en el archivo de resultados (mcedit Migración_Resultados_paso2.txt)
 
  Verificar los errores en el archivo de error (mcedit err_paso2.txt)
 
*Copy: psql siu –f Pampa_Copy.sql –o Migración_Resultados_paso3.txt –U pampa 2>err_paso3.txt
 
  Verificar que se hizo en el archivo de resultados (mcedit Migración_Resultados_paso3.txt)
 
  Verificar los errores en el archivo de error (mcedit err_paso3.txt)
 
*Funcion de Migracion
 
Se debe ingresar al ambiente PostgreSQL mediante la sentencia “psql siu –U pampa”, y luego ejecutar la función “migración” mediante el comando. Los resultados verlos en la tabla migracion_borrados de postgres.
 
  psql siu –U pampa
 
  select migracion(2);
 
  \q
 
*Indices: psql siu –f Pampa_Indices.sql –o Migración_Resultados_paso4.txt –U pampa 2>err_paso4.txt
 
  
==Errores==
+
=Errores=
===Errores al ejecutar Migracion===
+
==Errores al ejecutar Migracion==
Errores generados hasta correr el PampaCoy.sql, antes de la funcion de la migracion.
+
===Errores generados hasta correr el PampaCoy.sql, antes de la funcion de la migracion====
 
*dh23:   
 
*dh23:   
 
   linea 36550, nro_liqui=846 tiene valor nulo en el campo codn_conce
 
   linea 36550, nro_liqui=846 tiene valor nulo en el campo codn_conce
Línea 96: Línea 123:
 
*dh41: Claves duplicadas (legajo, mes ano)
 
*dh41: Claves duplicadas (legajo, mes ano)
 
*spu_vnci: Valor nulo en campo desc_abrev, linea 1
 
*spu_vnci: Valor nulo en campo desc_abrev, linea 1
Hacer bk de la tabla migracion_borrados
+
*spu_ipco: Valor nulo para campo ano_retro
  pg_dump -t pampa.migracion_borrados siu > migracion_borrados_201106.sql
 
  
=Instalacion Mapuche=
+
===Errores de tabla migracion_borrados: datos del 09/2012 a la fecha 29/11/2012====
==Errores al Instalar==
 
 
*dh05: valores nulos en campo fec_desde
 
*dh05: valores nulos en campo fec_desde
 
  Detectar el error:  
 
  Detectar el error:  
Línea 110: Línea 135:
 
   delete FROM pampa.dh05
 
   delete FROM pampa.dh05
 
   where fec_desde is NULL
 
   where fec_desde is NULL
 +
 +
*dh16
 +
El error que tira en general es que hay un concepto que esta en dh16 y no esta en dh12
 +
 +
SELECT * FROM "DH16" where codn_conce not in (select codn_conce from dh12)
 +
 +
SOLUCION: borrar de dh16 los conceptos que no estan en dh12
 +
 +
*dh23
 +
El error que tira en general es que hay un concepto que esta en dh23 y no esta en dh12
 +
 +
SELECT * FROM "DH23" where codn_conce not in (select codn_conce from dh12)
 +
 +
SOLUCION: borrar de dh23 los conceptos que no estan en dh12
 +
 +
*dha1
 +
Codigo de provincia+codigo postal+codigo repetidos tiene que estar en DHA4 (dha1::codigo_repetidos codigo_provincia codigo_postal  ->  dha4::codigo_repetidos codigo_provincia codigo_postal)
 +
 +
SOLUCION
 +
Los errores saltan para cuando en dha1 el codigo_provincia='XX',codigo_postal=5000,codigo_repetidos='00', pero estan esos codigos en la tabla dha4. NO PUDIMOS DETECTAR COMO ARREGLAR EL ERROR
 +
 +
*dl15
 +
Error: dl15::nro_licencia  ->  dh05::nro_licencia  (permite nulo: S)
 +
 +
El campo dl15.nro_licencia es un identificador unico. En los campos que tienen error es porque dl15.nro_licencia=0. Son los casos que se hace el calculo de LAO via Pampa, que genera una entrada en DL15 pero no genera bien ese campo.
 +
 +
SELECT * FROM "Dl15" where periodo=2011 and nro_licencia not in (select nro_licencia from dh05)
 +
 +
SELECT max(nro_licencia) FROM "Dl15"
 +
 +
SELECT * FROM "DL15" where nro_legajo=29978
 +
 +
SELECT * FROM "DL15" where tipo_mov='CAL' AND NRO_LICENCIA IN (SELECT NRO_LICENCIA FROM DH05) ORDER BY NRO_LEGAJO
 +
 +
SOLUCION1= Aun no se si es una solucion valida (lo que hice fue poner algun nro_licencia ya existente en dh05)
 +
 +
SELECT fecha_mov,fecha_hasta,periodo,nro_liquidacion,nro_licencia FROM dl15 where nro_licencia=0 and tipo_mov='CAL' and observaciones='AJUSTE'
 +
 +
update dl15 set nro_licencia=139457 where nro_licencia=0 and tipo_mov='CAL' and observaciones='AJUSTE'
 +
 +
SOLUCION2=Tengo que probar si con esta solucion no salta el error luego de hecha la migracion. Pareceria ser la solucion mas viable porque en teoria cuando se hace el calculo de LAO se genera un registro en dl15 con el nro_licencia en nulo
 +
 +
update "DL15" set nro_licencia=null where nro_licencia=0
 +
 +
*dh06
 +
 +
ERROR: Hay codigo de titulo que estan en dh06 pero no estan en la tabla maestra de titulo dh33
 +
 +
SOLUCION: Borrar en dh06 los titulos esos invalidos (entrando al Pampa y borrar a mano). Los legajos son:
 +
 
 +
  -28354, codc_titul=TSD
 +
  -48520, codc_titul=LMAT
 +
 +
SELECT * FROM "DH06" where codc_titul not in (select codc_titul from dh33)
 +
 +
delete FROM "DH06" where codc_titul not in (select codc_titul from dh33)
 +
 +
ERROR: Hay codigo de entidad otorgante que estan en dh06 pero no estan en la tabla maestra de titulo dh34
 +
 +
SELECT * FROM "DH06" where codc_entot not in (select codc_entot from dh34) order by codc_entot
 +
 +
SOLUCION: Borrar via Pervasive:
 +
 +
  delete FROM "DH06" where codc_entot not in (select codc_entot from dh34)
 +
 +
*dm02
 +
 +
select * from dm02 where nroestudrealizad not in (select nroestudrealizado from dh06)
 +
 +
delete from dm02 where nroestudrealizad not in (select nroestudrealizado from dh06)
 +
 +
*ona_ofer
 +
 +
ERROR: Hay titulos (idtitulo) en tabla ona_ofer que no estan en tabla ona_titu
 +
 +
El error salta para cuando idtitulo=167 o idtitulo=175. Son 9 filas en tabla ona_ofer
 +
 +
SOLUCION:
 +
-Mandar pedido al SIU para que arregle las tablas (porque no se puede acceder a esta tablas via Pervasive ni via Sistema Pampa)
 +
-Solucion provisoria: borrar esos registros en el txt de los cvs generados.
 +
 +
*spu_carc: El cvs de esta tabla borrarlo porque ya no se usa.
 +
 +
EL 03/12/2012 LAS UNICAS TABLAS DEL PAMPA RHUN 10/2012 QUE SE ENCONTRARON CON ERROR Y QUE FUERON ACTUALIZADAS SON: DH06, DM02 Y DH92 QUE SE RESTAURO EL ARCHIVO DESDE MODULO DE UTILIDADES.
 +
 +
Se comienza la generacion de CVS pampa rhun 10/2012 a las 10:27 am.
 +
Termina la generacion de CVS pampa rhun 10/2012 a las 13:50 am.
 +
 +
 +
=Mapuche escritorio=
 +
Esta instalado en una Pc de escritorio
 +
Para poder entrar con ese usuario o con cualquiera, hacen falta agregar permisos
 +
 
=Pruebas Mapuche=
 
=Pruebas Mapuche=
 
==Procesos PosLiquidacion==
 
==Procesos PosLiquidacion==
 
Necesito generar de nuevo los cvs una vez cerrado el pampa
 
Necesito generar de nuevo los cvs una vez cerrado el pampa
 
===Sicoss===
 
===Sicoss===
====Funcionamiento====
 
*Prueba en hecha en junio 2011
 
Encontramos que no permite generar Sicoss para un periodo en particular como en el Pampa que te permite poner mes y año (en caso de no poner nada se genera todo).
 
  
El proceso de generacion Sicoss genera todo (mes actual y retroactivos en el mismo proceso), tira una ventana de previsualizacion de resultados y luego permite exportar los datos (los exporta en un txt para cada mes retroactivo).
 
  
Al generar los datos de retroactivos, toma los ultimos topes, o sea los que estan en la parte de configuracion de Mapuche: Configuracion-->Impositivos-->Parametros. No tiene para cargar los topes por mes, si se quiere esto hay que cargar los topes del mes que se quiere generar, generar (te genera todos los meses), exportar los archivos (genera un archivo por mes) y quedarme solo con los meses correspondientes al tope cargado. Luego ir a configuracion para cambiar de nuevo los topes al mes que queremos generar y hacer todo el proceso de nuevo. Asi sucesivamente, hasta que genere todos los meses retroactivos que quiera generar.
+
====Generacion de Sicoss====
 +
#ingresamos a mapuche LINK
 +
#
 +
====Configuración tope====
 +
#
 +
====Archivos Generados====
 +
#
 +
 
 +
 
 +
=====Funcionamiento=====
 +
======Prueba en hecha en junio 2011 con version Mapuche 1.12.1======
 +
Encontramos que no permite generar Sicoss para un periodo en particular como en el Pampa que te
 +
permite poner mes y año (en caso de no poner nada se genera todo).
 +
El proceso de generacion Sicoss genera todo (mes actual y retroactivos en el mismo proceso), tira una
 +
ventana de previsualizacion de resultados y luego permite exportar los datos (los exporta en un txt
 +
para cada mes retroactivo).
 +
Al generar los datos de retroactivos, toma los ultimos topes, o sea los que estan en la parte de
 +
configuracion de Mapuche: Configuracion-->Impositivos-->Parametros. No tiene para cargar los topes por
 +
mes, si se quiere esto hay que cargar los topes del mes que se quiere generar, generar (te genera
 +
todos los meses), exportar los archivos (genera un archivo por mes) y quedarme solo con los meses
 +
correspondientes al tope cargado. Luego ir a configuracion para cambiar de nuevo los topes al mes que
 +
queremos generar y hacer todo el proceso de nuevo. Asi sucesivamente, hasta que genere todos los meses
 +
retroactivos que quiera generar.
 +
 
 +
=====Pedidos SIU=====
 +
  #Pedimos al siu que mejoren este proceso para que hagan los topes por mes retroactivo.
 +
  http://comunidad.siu.edu.ar/index.php?topic=3433.msg13226#new
 +
 
 +
  #Pedimos al siu que se fijen porque la generacion de Sicoss para todos los legajos se clava en
 +
Mapuche.
 +
  http://comunidad.siu.edu.ar/index.php?topic=3521.0
 +
 
 +
  #Pedimos al siu que nos que nos expliquen como hacen el calculo de Sicoss, citamos como ejemplo el
 +
legajo de Cdor. Font
 +
  http://comunidad.siu.edu.ar/index.php?topic=3529.0
 +
 
 +
=====Datos=====
 +
No tenemos datos de errores producidos para probar. Juan deberia informarnos esto.
  
Pedimos al siu que mejoren este proceso para que hagan los topes por mes retroactivo.
 
====Datos====
 
 
===Sicore===
 
===Sicore===
====Funcionamiento====
+
=====Funcionamiento=====
 +
=====Datos=====
 
===Generacion Recibos===
 
===Generacion Recibos===
 +
 +
En Mapuche la generacion de recibos se guarda en el esquema Mapuche, las tablas son: dhr1(analoga a recibo1 de pampa), dhr2(analoga a recibo2 de pampa), dhr3(analoga a recibo3 de pampa)
 +
 +
==Configuracion Parámetros de recibos==
 +
1)Ir a configuracion->parametros de recibos
 +
==Generacion de Recibos==
 +
 +
===Acreditacion===
 +
===Apoyo banco===
 +
===Salida de terceros (Dasou, Gremios, Seguro de vida, etc)===
 +
===Certificacion de servicios prestados por dependencia (mensualmente)===
 +
===Pilaga===
 +
===O3===
 +
===Rhun===
 +
===Relacion con el sistema (SIFLA) de Andrea===
  
 
==Procesos que van desde la Concentrac. hasta Liquidacion==
 
==Procesos que van desde la Concentrac. hasta Liquidacion==
 +
===Liquidacion en Pampa esritorio===
 +
=====Funcionamiento=====
 +
=====Datos=====
 +
===Calculo Cuarta Categoria===
 +
=====Funcionamiento=====
 +
Probar en Pampa escritorio
 +
===Importacion de Terceros===
 +
===Incorporac. de ctas. bancarias y pedido de ctas. nvas.===
 +
===Listado de Licencias sin goce para el area de licencias===
 +
===Listado de incompatibilidades===
 +
 +
 +
 +
=Bugs encontrados en Mapuche=
 +
 +
* En Actualización-->Definicion de Liquidacion
 +
El error es un query, en ese query se muestra un nro de liquidac. que tiene descipc. vacia. No anda si hay alguna liquidacion con descripcion vacia (no se si sera solo cuando la liquidacion esta abierta).
 +
Lo solucione agregando la descripcion al nro de liquidacion que me salto el error.
 +
 +
* En Servicios-->Acreditacion-->Generar
 +
Cuando termina el proceso, hay un titulo Exportación para bancos, bno ahi el boton Volver no funciona
 +
 +
* Al hacer Generación de Acreditación, me da error en Reportes Remanentes (genera un pdf en otra ventana pero se abre en blanco)
 +
 +
*En Actualizacion-->Legajo al querer hacer una busqueda por CUIL de la persona, no funciona ese filtro ya que no me trae ningun dato.
 +
 +
= Trazabilidad Base de Datos Pampa-Mapuche =
 +
 +
== DH05 ==
 +
 +
    '''PAMPA'''                      '''MAPUCHE'''
 +
    ''nro_licenc'' ---------------> ''nro_licencia''
 +
    nro_legaj                  nro_legaj
 +
    nro_cargo                  nro_cargo
 +
    fec_desde                  fec_desde
 +
    fec_hasta                  fec_hasta
 +
    ''nrovarlice'' ---------------> ''nrovarlicencia''
 +
 +
== DL02 ==
 +
 +
    '''PAMPA'''                      '''MAPUCHE'''
 +
    ''nrovalice''  ---------------> ''nrovarlicencia''
 +
    ''codn_tipo_'' ---------------> ''codn_tipo_lic''
 +
 +
== DH02 ==
 +
 +
En Mapuche y Pampa estan los mismos campos (falta verificar los nombres si son =) pero el campo chk_ganan de Pampa no esta en dh02 de Mapuche.
 +
 +
= Tablas de manejo de usuarios y perfiles en Base de Datos Mapuche =
 +
 +
Estas tablas estan dentro del esquema toba_mapuche
 +
 +
*apex_usuarios: Datos proppios de cada usuario
 +
 +
Campos:
 +
 +
-usuario: es el id del usuario. Actualmente es el nro de cuil de la persona
 +
 +
-clave:
 +
 +
-nombre:
 +
 +
-email:
 +
 +
-etc. etc, etc
 +
 +
*apex_usuario_grupo_acc: Perfiles Funcionales
 +
 +
Campos:
 +
 +
-proyecto:
 +
 +
-usuario_grupo_acc: id del perfil funcional
 +
 +
-nombre:
 +
 +
-nivel_acceso:
 +
 +
-etc. etc, etc
 +
 +
 +
*apex_usuario_grupo_acc_item: Permisos por Perfil Funcional
 +
 +
*apex_usuario_grupo_acc_miembros: Perfiles Funcional anidados (perfiles funcionales que pertenecen a un perfil funcional padre)
 +
 +
*apex_usuarios_perfil_datos: Perfiles de Datos
 +
 +
Campos:
 +
 +
-proyecto:
 +
 +
-usuario_perfil_datos: id del perfil
 +
 +
-nombre:
 +
 +
-descripcion:
 +
 +
-listar:
 +
 +
*apex_usuarios_perfil_datos_dim: Perfiles de Datos por Dimension
 +
 +
Campos:
 +
 +
-usuario_perfil_datos: id del perfil
 +
 +
-dimension: es unica en Mapuche por ahora, siempre es 13 y significa que el perfil de datos se hace por dependencia
 +
 +
-elemento= NO SE AUN
 +
 +
-clave: cada una de las dependencias CREOOOOO (NO SE QUE TABLA MAESTRA DE DEPENDENCIAS MIRA PARA TOMAR LA DIMENSION DEPENDENCIA)
 +
 +
*apex_usuario_proyecto: Perfil Funcional por Usuario
 +
 +
Campos:
 +
 +
-proyecto:
 +
 +
-usuario_grupo_acc: id del perfil funcional asociado
 +
 +
-usuario: Actualmente es el nro de cuil de la persona ()
 +
 +
-usuario_perfil_datos: Actualmente esta en NULL
 +
 +
*apex_usuario_proyecto_perfil_datos: Perfil de Datos por Usuario
 +
 +
Campos:
 +
 +
-proyecto:
 +
 +
-usuario_perfil_datos: id del perfil de datos
 +
 +
-usuario: Actualmente es el nro de cuil de la persona ()
 +
 +
=Ubicacion fisica de reportes en servidor Mapuche=
 +
 +
Donde estan fisicamente los reportes?
 +
 +
-En version del año 2011:
 +
 +
*Reportes estandar:
 +
/servers/produccion/mapuche/aplicacion/php/modelos/impresion/pdf/plantillas/reportes/novedades/movimientos
 +
*Imagenes de los reportes estandar:
 +
/servers/produccion/mapuche/aplicacion/php/modelos/impresion/pdf/soporte/images
 +
*Reportes personalizados:
 +
/servers/produccion/mapuche/aplicacion/personalizacion/plantillas/reportes/novedades/movimientos
 +
*Imagenes de los reportes personalizados:
 +
/servers/produccion/mapuche/aplicacion/personalizacion/soporte/image
 +
 +
-En version del año 2013:
 +
 +
./mapuche/mapuche/aplicacion/php/modelos/generacion/recursos/imagenes/
 +
 +
=Consulta sql para relacionar datos desde 2 bases de postgres distintas=
 +
 +
Esto en Postgres solo es posible hacerlo instalando DBLink en un cliente (no en el server, por ej. en una maquina local). Me conecto a una base local en mi compu (donde tengo instalado DBLink) y alli ejecuto las consultas relacionando con las bases en el servidor.
 +
 +
* Cant de movimientos (desde el log) por dep, por tipo de movimiento
 +
 +
select id_dep,auditoria_operacion,count(*) as cant
 +
from
 +
dblink('dbname=mapuche201309asig hostaddr=200.16.30.7 user=postgres
 +
password=xxxx port=5432','SELECT
 +
auditoria_usuario,auditoria_operacion,auditoria_fecha
 +
FROM mapuche_auditoria.logs_dh02') as log02(auditoria_usuario  character
 +
varying(30),auditoria_operacion  character(1),auditoria_fecha timestamp
 +
without time zone),
 +
dblink('dbname=mapucheusuariosasig hostaddr=200.16.30.7 user=postgres
 +
password=xxxx port=5432','SELECT usuario,nombre FROM
 +
toba_mapuche.apex_usuario') as apex_usu(usuario character
 +
varying(60),nombre text),
 +
dblink('dbname=mapucheusuariosasig hostaddr=200.16.30.7 user=postgres
 +
password=xxxx port=5432','SELECT usuario_perfil_datos,usuario FROM
 +
toba_mapuche.apex_usuario_proyecto_perfil_datos') as
 +
apex_perfil_datos(id_perfil_datos bigint,usu character varying(60)),
 +
dblink('dbname=mapucheusuariosasig hostaddr=200.16.30.7 user=postgres
 +
password=xxxx port=5432','SELECT usuario_perfil_datos,clave FROM
 +
toba_mapuche.apex_usuario_perfil_datos_dims') as
 +
apex_perfil_datosxdep(id_perfil_datos bigint,id_dep text)
 +
where log02.auditoria_usuario=apex_usu.usuario and
 +
apex_usu.usuario=apex_perfil_datos.usu and
 +
apex_perfil_datos.id_perfil_datos=apex_perfil_datosxdep.id_perfil_datos
 +
group by id_dep,auditoria_operacion
 +
order by id_dep,auditoria_operacion
 +
 +
=Perfiles Funcionales=
 +
Se guardan tanto en la base de datos (dentro del esquema toba_usuarios) como tambien en archivos php.
 +
 +
Ejemplo del directorio:
 +
/201305_v1.21.3_dgti/mapuche/aplicacion/metadatos_compilados/gene/
 +
 +
Dentro de esa carpeta, los archivos que guarda son:
 +
 +
*toba_mc_gene__grupo_admin.php
 +
*toba_mc_gene__grupo_data_admin.php
 +
 +
=Tablas a tocar cuando quiero borrar un concepto en Mapuche=
 +
 +
*dh12 (histor-->dh62)
 +
*dh13 (histor-->dh63)
 +
*dh14
 +
*dh15
 +
*dh16
 +
*dh22
 +
*dh23
 +
 +
=Creacion de Usuarios Mapuche=
 +
 +
==Con Mapuches con OpendId==
 +
Hay que entrar al Toba, crear un nuevo usuario y ponerle la clave P3rs3v3r4.Y.Tr1unf4r4s, sin importar que usuario sea....a TODOS la misma clave.

Revisión actual del 10:44 29 jun 2016

Instalación de aplicaciones para Mapuche

Usuario SIU-Mapuche

Estructura Escritorio SIU-Mapuche

Documentacion Mapuche

Primeras pruebas con el Sistema Mapuche

Contenido

2013/04

Caracteristicas del servidor USO EXCLISVO
  -Cpu  Intel(R) Core(TM) i5 CPU 750  @ 2.67GHz
 -Memoria 8GB ddr3 ( 1333 MHz)
 -Disco del sistema operativo de 160GB sata
 -Discos del raid 1+0 4 discos sata de 640 gb
 -Datos de la instalacion de mapuche y postgres:
 -sistema mapche en disco sata (junto con sistem aoperativo)
  base de postgres en otros discos con con raid 1+0 sata (espejado+velocidad) con log
  de la base en otro disco (el del sistema mapuche)
Sistema operativo
 -Debian 5.0.8
 -Version de apache 2.2.9
 -Version de php  5.2.6-1
 -Version de postgres 8.3.13
Version Mapuche
 -1.18.0
Mes Año Pampa
 - 201209

Migracion Mapuche

Pasos:

1- Reindexacion archivo cuentas Bancarias

Consiste en restaurar el archivo dh92.dat (porque tiene los identificadores unicos en 0 por haber sido reimportado...esto renumero el id), desde el modulo utilidades de Pampa ir el menu Procesos-->Restaurar Archivos. Siempre hacer esto antes de generar CVS.

2- Arreglar errores frecuentes que se dan en la migracion, por incosnsistencias y/o diferencias en el funcionamiento de ambos sistema(Pampa vs. Mapuche)

Para ello:

a) Crear una carpeta en T:\MAPUCHE\migracion que se llame AAAAMM

b) Copiar alli el archivo que esta en:

T:\MAPUCHE\migracion\errores_grales.txt

c) Ejecutar los scripts que estan en ese archivo y anotar debajo de cada consulta cuantos registros se modificaron luego de cada update.

3- Arreglar en Pampa errores de Migracion del Mes anterior

Consiste en tomar los errores de la tabla migracion_borrados del esquema public en postgres en Mapuche del mes anterior y en base al detalle del error entrar a Pervasive en la coneccion con el Pampa central del mes actual y ejecutar consultas sql y update para modificar. Entrar a postgres desde 200.16.30.7/Pg

Consulta1: Para saber en que tablas hubo errores

select distinct tabla from migracion_borrados	

Consulta2: Para arreglar los errores de cada tabla que tiro error (siempre escribir el nombre de la tabla en minuscula)

select* from migracion_borrados where tabla='dha1'

4- Generacion cvs Pampa

5- Revision Errores de Generacion CVS Pampa

Consiste en revisar el archivo exporta.txt (creado al generar CVS) y analizar lor errores que genera y si dio algun error arrgelarlo via Pervasive y volver a generar los CVSs de solo los archivos .dat que se tocaron.

7- Copiar los archivos CVS

  • Copiar via explorador de archivos los CVS generados a T:\MAPUCHE\CVS\
  • Entrar x ftp al servidor donde trabajamos y de alli copiar los CVS generados a a la carpeta /lmanjarres/mapuche/POSTGRES/

8- Preparar el entorno y migrar

 Crear la Base
 Crear usuario
 Crear el esquema siu

9- Ejecutar scripts de migracion

  • Ejecutar Migracion
  • Ejecutar Tablas
  • Ejecutar Copy
  • Ejecutar Funcion de Migracion
  • Ejecutar Indices: psql siu –f Pampa_Indices.sql –o Migración_Resultados_paso4.txt –U pampa 2>err_paso4.txt

Instalacion Mapuche

Proceso de Instalacion

  • Copiar el instalador de mapuche al root del servidor (/var/www) y descomprimirlo o copiar la carpeta ya descomprimida.
  • Ejecutar el instalador
  • Si la instalacion es completa seguir todos los pasos.


Servidores

172.18.230.20 (SEIYA o 122 en 2ºPiso)- postgres 9.2 o 3   
192.168.19.42 (Postgres 02 en 6ºPiso) - MV
- NO EXITE MAS - *192.168.10.137 (servidor de computos 2do piso). Datos para entrar a administrar el servidor--> passw: *******
- NO EXISTE MAS -*200.16.30.7 (servidor de computos en el 6to piso).Datos para entrar a administrar el servidor--> passw: *******

Como ingresar a Mapuche

Mapuche produccion

En un navegador poner http://<ip_servidor>/siu/mapuche/

  • Usuario de Mapuche: mapuche
  • Passw de Mapuche: *******

Mapuche migracion

En un navegador poner http://<ip_servidor>/siu_migracion/mapuche/

  • Usuario de Mapuche: mapuche
  • Passw de Mapuche: *******

Errores

Errores al ejecutar Migracion

Errores generados hasta correr el PampaCoy.sql, antes de la funcion de la migracion=

  • dh23:
 linea 36550, nro_liqui=846 tiene valor nulo en el campo codn_conce
 linea 37352, nro_liqui=869 tiene valor nulo en el campo codn_conce
  • dh92: Clave duplicada, regenerar el archivo via modulo de Utilidades para regenerar el campo clave que es un autonumerico.
  • do01: Hay valores nulos en el campo codc_regio (tercer campo, reemplazar x "000")
  • dh41: Claves duplicadas (legajo, mes ano)
  • spu_vnci: Valor nulo en campo desc_abrev, linea 1
  • spu_ipco: Valor nulo para campo ano_retro

Errores de tabla migracion_borrados: datos del 09/2012 a la fecha 29/11/2012=

  • dh05: valores nulos en campo fec_desde
Detectar el error: 
 select nro_licencia,nro_legaj,nro_cargo, fec_desde, fec_hasta
 FROM pampa.dh05
 where fec_desde is NULL
Corregir el error via postgres: 
 delete FROM pampa.dh05
 where fec_desde is NULL
  • dh16

El error que tira en general es que hay un concepto que esta en dh16 y no esta en dh12

SELECT * FROM "DH16" where codn_conce not in (select codn_conce from dh12)

SOLUCION: borrar de dh16 los conceptos que no estan en dh12

  • dh23

El error que tira en general es que hay un concepto que esta en dh23 y no esta en dh12

SELECT * FROM "DH23" where codn_conce not in (select codn_conce from dh12)

SOLUCION: borrar de dh23 los conceptos que no estan en dh12

  • dha1

Codigo de provincia+codigo postal+codigo repetidos tiene que estar en DHA4 (dha1::codigo_repetidos codigo_provincia codigo_postal -> dha4::codigo_repetidos codigo_provincia codigo_postal)

SOLUCION Los errores saltan para cuando en dha1 el codigo_provincia='XX',codigo_postal=5000,codigo_repetidos='00', pero estan esos codigos en la tabla dha4. NO PUDIMOS DETECTAR COMO ARREGLAR EL ERROR

  • dl15

Error: dl15::nro_licencia -> dh05::nro_licencia (permite nulo: S)

El campo dl15.nro_licencia es un identificador unico. En los campos que tienen error es porque dl15.nro_licencia=0. Son los casos que se hace el calculo de LAO via Pampa, que genera una entrada en DL15 pero no genera bien ese campo.

SELECT * FROM "Dl15" where periodo=2011 and nro_licencia not in (select nro_licencia from dh05)

SELECT max(nro_licencia) FROM "Dl15"

SELECT * FROM "DL15" where nro_legajo=29978

SELECT * FROM "DL15" where tipo_mov='CAL' AND NRO_LICENCIA IN (SELECT NRO_LICENCIA FROM DH05) ORDER BY NRO_LEGAJO

SOLUCION1= Aun no se si es una solucion valida (lo que hice fue poner algun nro_licencia ya existente en dh05)

SELECT fecha_mov,fecha_hasta,periodo,nro_liquidacion,nro_licencia FROM dl15 where nro_licencia=0 and tipo_mov='CAL' and observaciones='AJUSTE'

update dl15 set nro_licencia=139457 where nro_licencia=0 and tipo_mov='CAL' and observaciones='AJUSTE'

SOLUCION2=Tengo que probar si con esta solucion no salta el error luego de hecha la migracion. Pareceria ser la solucion mas viable porque en teoria cuando se hace el calculo de LAO se genera un registro en dl15 con el nro_licencia en nulo

update "DL15" set nro_licencia=null where nro_licencia=0

  • dh06

ERROR: Hay codigo de titulo que estan en dh06 pero no estan en la tabla maestra de titulo dh33

SOLUCION: Borrar en dh06 los titulos esos invalidos (entrando al Pampa y borrar a mano). Los legajos son:

 -28354, codc_titul=TSD
 -48520, codc_titul=LMAT

SELECT * FROM "DH06" where codc_titul not in (select codc_titul from dh33)

delete FROM "DH06" where codc_titul not in (select codc_titul from dh33)

ERROR: Hay codigo de entidad otorgante que estan en dh06 pero no estan en la tabla maestra de titulo dh34

SELECT * FROM "DH06" where codc_entot not in (select codc_entot from dh34) order by codc_entot

SOLUCION: Borrar via Pervasive:

 delete FROM "DH06" where codc_entot not in (select codc_entot from dh34)
  • dm02

select * from dm02 where nroestudrealizad not in (select nroestudrealizado from dh06)

delete from dm02 where nroestudrealizad not in (select nroestudrealizado from dh06)

  • ona_ofer

ERROR: Hay titulos (idtitulo) en tabla ona_ofer que no estan en tabla ona_titu

El error salta para cuando idtitulo=167 o idtitulo=175. Son 9 filas en tabla ona_ofer

SOLUCION: -Mandar pedido al SIU para que arregle las tablas (porque no se puede acceder a esta tablas via Pervasive ni via Sistema Pampa) -Solucion provisoria: borrar esos registros en el txt de los cvs generados.

  • spu_carc: El cvs de esta tabla borrarlo porque ya no se usa.

EL 03/12/2012 LAS UNICAS TABLAS DEL PAMPA RHUN 10/2012 QUE SE ENCONTRARON CON ERROR Y QUE FUERON ACTUALIZADAS SON: DH06, DM02 Y DH92 QUE SE RESTAURO EL ARCHIVO DESDE MODULO DE UTILIDADES.

Se comienza la generacion de CVS pampa rhun 10/2012 a las 10:27 am. Termina la generacion de CVS pampa rhun 10/2012 a las 13:50 am.


Mapuche escritorio

Esta instalado en una Pc de escritorio Para poder entrar con ese usuario o con cualquiera, hacen falta agregar permisos

Pruebas Mapuche

Procesos PosLiquidacion

Necesito generar de nuevo los cvs una vez cerrado el pampa

Sicoss

Generacion de Sicoss

#ingresamos a mapuche LINK
#

Configuración tope

#

Archivos Generados

#


Funcionamiento
Prueba en hecha en junio 2011 con version Mapuche 1.12.1
Encontramos que no permite generar Sicoss para un periodo en particular como en el Pampa que te
permite poner mes y año (en caso de no poner nada se genera todo).
El proceso de generacion Sicoss genera todo (mes actual y retroactivos en el mismo proceso), tira una
ventana de previsualizacion de resultados y luego permite exportar los datos (los exporta en un txt
para cada mes retroactivo).
Al generar los datos de retroactivos, toma los ultimos topes, o sea los que estan en la parte de
configuracion de Mapuche: Configuracion-->Impositivos-->Parametros. No tiene para cargar los topes por
mes, si se quiere esto hay que cargar los topes del mes que se quiere generar, generar (te genera
todos los meses), exportar los archivos (genera un archivo por mes) y quedarme solo con los meses
correspondientes al tope cargado. Luego ir a configuracion para cambiar de nuevo los topes al mes que
queremos generar y hacer todo el proceso de nuevo. Asi sucesivamente, hasta que genere todos los meses
retroactivos que quiera generar.
Pedidos SIU
 #Pedimos al siu que mejoren este proceso para que hagan los topes por mes retroactivo.
 http://comunidad.siu.edu.ar/index.php?topic=3433.msg13226#new
 #Pedimos al siu que se fijen porque la generacion de Sicoss para todos los legajos se clava en
Mapuche.
 http://comunidad.siu.edu.ar/index.php?topic=3521.0
 #Pedimos al siu que nos que nos expliquen como hacen el calculo de Sicoss, citamos como ejemplo el
legajo de Cdor. Font
 http://comunidad.siu.edu.ar/index.php?topic=3529.0
Datos

No tenemos datos de errores producidos para probar. Juan deberia informarnos esto.

Sicore

Funcionamiento
Datos

Generacion Recibos

En Mapuche la generacion de recibos se guarda en el esquema Mapuche, las tablas son: dhr1(analoga a recibo1 de pampa), dhr2(analoga a recibo2 de pampa), dhr3(analoga a recibo3 de pampa)

Configuracion Parámetros de recibos

1)Ir a configuracion->parametros de recibos

Generacion de Recibos

Acreditacion

Apoyo banco

Salida de terceros (Dasou, Gremios, Seguro de vida, etc)

Certificacion de servicios prestados por dependencia (mensualmente)

Pilaga

O3

Rhun

Relacion con el sistema (SIFLA) de Andrea

Procesos que van desde la Concentrac. hasta Liquidacion

Liquidacion en Pampa esritorio

Funcionamiento
Datos

Calculo Cuarta Categoria

Funcionamiento

Probar en Pampa escritorio

Importacion de Terceros

Incorporac. de ctas. bancarias y pedido de ctas. nvas.

Listado de Licencias sin goce para el area de licencias

Listado de incompatibilidades

Bugs encontrados en Mapuche

  • En Actualización-->Definicion de Liquidacion

El error es un query, en ese query se muestra un nro de liquidac. que tiene descipc. vacia. No anda si hay alguna liquidacion con descripcion vacia (no se si sera solo cuando la liquidacion esta abierta). Lo solucione agregando la descripcion al nro de liquidacion que me salto el error.

  • En Servicios-->Acreditacion-->Generar

Cuando termina el proceso, hay un titulo Exportación para bancos, bno ahi el boton Volver no funciona

  • Al hacer Generación de Acreditación, me da error en Reportes Remanentes (genera un pdf en otra ventana pero se abre en blanco)
  • En Actualizacion-->Legajo al querer hacer una busqueda por CUIL de la persona, no funciona ese filtro ya que no me trae ningun dato.

Trazabilidad Base de Datos Pampa-Mapuche

DH05

    PAMPA                       MAPUCHE
    nro_licenc ---------------> nro_licencia
    nro_legaj                   nro_legaj
    nro_cargo                   nro_cargo
    fec_desde                   fec_desde
    fec_hasta                   fec_hasta
    nrovarlice ---------------> nrovarlicencia

DL02

    PAMPA                       MAPUCHE
    nrovalice  ---------------> nrovarlicencia
    codn_tipo_ ---------------> codn_tipo_lic

DH02

En Mapuche y Pampa estan los mismos campos (falta verificar los nombres si son =) pero el campo chk_ganan de Pampa no esta en dh02 de Mapuche.

Tablas de manejo de usuarios y perfiles en Base de Datos Mapuche

Estas tablas estan dentro del esquema toba_mapuche

  • apex_usuarios: Datos proppios de cada usuario

Campos:

-usuario: es el id del usuario. Actualmente es el nro de cuil de la persona

-clave:

-nombre:

-email:

-etc. etc, etc

  • apex_usuario_grupo_acc: Perfiles Funcionales

Campos:

-proyecto:

-usuario_grupo_acc: id del perfil funcional

-nombre:

-nivel_acceso:

-etc. etc, etc


  • apex_usuario_grupo_acc_item: Permisos por Perfil Funcional
  • apex_usuario_grupo_acc_miembros: Perfiles Funcional anidados (perfiles funcionales que pertenecen a un perfil funcional padre)
  • apex_usuarios_perfil_datos: Perfiles de Datos

Campos:

-proyecto:

-usuario_perfil_datos: id del perfil

-nombre:

-descripcion:

-listar:

  • apex_usuarios_perfil_datos_dim: Perfiles de Datos por Dimension

Campos:

-usuario_perfil_datos: id del perfil

-dimension: es unica en Mapuche por ahora, siempre es 13 y significa que el perfil de datos se hace por dependencia

-elemento= NO SE AUN

-clave: cada una de las dependencias CREOOOOO (NO SE QUE TABLA MAESTRA DE DEPENDENCIAS MIRA PARA TOMAR LA DIMENSION DEPENDENCIA)

  • apex_usuario_proyecto: Perfil Funcional por Usuario

Campos:

-proyecto:

-usuario_grupo_acc: id del perfil funcional asociado

-usuario: Actualmente es el nro de cuil de la persona ()

-usuario_perfil_datos: Actualmente esta en NULL

  • apex_usuario_proyecto_perfil_datos: Perfil de Datos por Usuario

Campos:

-proyecto:

-usuario_perfil_datos: id del perfil de datos

-usuario: Actualmente es el nro de cuil de la persona ()

Ubicacion fisica de reportes en servidor Mapuche

Donde estan fisicamente los reportes?

-En version del año 2011:

  • Reportes estandar:

/servers/produccion/mapuche/aplicacion/php/modelos/impresion/pdf/plantillas/reportes/novedades/movimientos

  • Imagenes de los reportes estandar:

/servers/produccion/mapuche/aplicacion/php/modelos/impresion/pdf/soporte/images

  • Reportes personalizados:

/servers/produccion/mapuche/aplicacion/personalizacion/plantillas/reportes/novedades/movimientos

  • Imagenes de los reportes personalizados:

/servers/produccion/mapuche/aplicacion/personalizacion/soporte/image

-En version del año 2013:

./mapuche/mapuche/aplicacion/php/modelos/generacion/recursos/imagenes/

Consulta sql para relacionar datos desde 2 bases de postgres distintas

Esto en Postgres solo es posible hacerlo instalando DBLink en un cliente (no en el server, por ej. en una maquina local). Me conecto a una base local en mi compu (donde tengo instalado DBLink) y alli ejecuto las consultas relacionando con las bases en el servidor.

  • Cant de movimientos (desde el log) por dep, por tipo de movimiento

select id_dep,auditoria_operacion,count(*) as cant from dblink('dbname=mapuche201309asig hostaddr=200.16.30.7 user=postgres password=xxxx port=5432','SELECT auditoria_usuario,auditoria_operacion,auditoria_fecha FROM mapuche_auditoria.logs_dh02') as log02(auditoria_usuario character varying(30),auditoria_operacion character(1),auditoria_fecha timestamp without time zone), dblink('dbname=mapucheusuariosasig hostaddr=200.16.30.7 user=postgres password=xxxx port=5432','SELECT usuario,nombre FROM toba_mapuche.apex_usuario') as apex_usu(usuario character varying(60),nombre text), dblink('dbname=mapucheusuariosasig hostaddr=200.16.30.7 user=postgres password=xxxx port=5432','SELECT usuario_perfil_datos,usuario FROM toba_mapuche.apex_usuario_proyecto_perfil_datos') as apex_perfil_datos(id_perfil_datos bigint,usu character varying(60)), dblink('dbname=mapucheusuariosasig hostaddr=200.16.30.7 user=postgres password=xxxx port=5432','SELECT usuario_perfil_datos,clave FROM toba_mapuche.apex_usuario_perfil_datos_dims') as apex_perfil_datosxdep(id_perfil_datos bigint,id_dep text) where log02.auditoria_usuario=apex_usu.usuario and apex_usu.usuario=apex_perfil_datos.usu and apex_perfil_datos.id_perfil_datos=apex_perfil_datosxdep.id_perfil_datos group by id_dep,auditoria_operacion order by id_dep,auditoria_operacion

Perfiles Funcionales

Se guardan tanto en la base de datos (dentro del esquema toba_usuarios) como tambien en archivos php.

Ejemplo del directorio: /201305_v1.21.3_dgti/mapuche/aplicacion/metadatos_compilados/gene/

Dentro de esa carpeta, los archivos que guarda son:

  • toba_mc_gene__grupo_admin.php
  • toba_mc_gene__grupo_data_admin.php

Tablas a tocar cuando quiero borrar un concepto en Mapuche

  • dh12 (histor-->dh62)
  • dh13 (histor-->dh63)
  • dh14
  • dh15
  • dh16
  • dh22
  • dh23

Creacion de Usuarios Mapuche

Con Mapuches con OpendId

Hay que entrar al Toba, crear un nuevo usuario y ponerle la clave P3rs3v3r4.Y.Tr1unf4r4s, sin importar que usuario sea....a TODOS la misma clave.