viernes, 5 de agosto de 2016

F) Integridad.

F) Integridad.

El término integridad de datos se refiere a la corrección y complementación de los datos en una base de datos Cuando los contenidos se modifican con sentencias INSERT,DELETE o UPDATE, la integridad de los datos almacenados puede perderse de muchas maneras diferentes. Pueden añadirse datos no válidos a la base de datos, tales como un pedido que especifica un producto no existente.
Pueden modificarse datos existentes tomando un valor incorrecto, como por ejemplo si se reasigna un vendedor a una oficina no existente. Los cambios en la base de datos pueden perderse debido a un error del sistema o a un fallo en el suministro de energia. Los cambios pueden ser aplicados parcialmente, como por ejemplo si se añade un pedido de un producto sin ajustar la cantidad disponible para vender.
Una de las funciones importantes de un DBMS relacional es preservar la integridad de sus datos almacenados en la mayor medida posible.

Tipos de restricciones de integridad
  • Datos Requeridos: establece que una columna tenga un valor no NULL. Se define efectuando la declaración de una columna es NOT NULL cuando la tabla que contiene las columnas se crea por primera vez, como parte de la sentencia CREATE TABLE.


  • Chequeo de Validez: cuando se crea una tabla cada columna tiene un tipo de datos y el DBMS asegura que solamente los datos del tipo especificado sean ingresados en la tabla.
  • Integridad de entidad: establece que la clave primaria de una tabla debe tener un valor único para cada fila de la tabla; si no, la base de datos perderá su integridad. Se especifica en la sentencia CREATE TABLE. El DBMS comprueba automáticamente la unicidad del valor de la clave primaria con cada sentencia INSERT Y UPDATE. Un intento de insertar o actualizar una fila con un valor de la clave primaria ya existente fallará.
  • Integridad referencial: asegura la integridad entre las llaves foráneas y primarias (relaciones padre/hijo). Existen cuatro actualizaciones de la base de datos que pueden corromper la integridad referencial:
    • La inserción de una fila hijo se produce cuando no coincide la llave foránea con la llave primaria del padre.
    • La actualización en la llave foránea de la fila hijo, donde se produce una actualización en la clave ajena de la fila hijo con una sentencia UPDATE y la misma no coincide con ninguna llave primaria.
    • La supresión de una fila padre, con la que, si una fila padre -que tiene uno o más hijos- se suprime, las filas hijos quedarán huérfanas.
    • La actualización de la clave primaria de una fila padre, donde si en una fila padre, que tiene uno o más hijos se actualiza su llave primaria, las filas hijos quedarán huerfanas

J) Interfaz con el pasado y el futuro.

J) Interfaz con el pasado y el futuro.

Antecedentes.

En 1960 apareció una primera generación de base de datos para permitir el intercambio de información entre sistemas. La memoria RAM y el espacio de almacenamiento eran extremadamente restringidos. Para cambiar de administrador de base de datos, era necesario reescribir la aplicación debido a la variedad de lenguajes y características. Fue un modelo tan cerrado que hoy hay empresas que continúan dependiendo de productos como IMS de IBM, IDMS y DATACOM de CA, DMS II de UNISYS y Adabas de Software AG.

En la búsqueda de una nueva forma de acceder datos que fuera independiente de la aplicación, se aplicaron modelos matemáticos para crear un paradigma relacional. System /R de IBM fue la primera implementación de la propuesta del Dr. E. F. Codd. Se generaron distintas propuestas para un lenguaje de consulta universal, tales como SQL, DLL y DML. Triunfó el primero, que no gustaba a los puristas pero era más sencillo. En ese momento la memoria RAM continuaba siendo costosa y había un solo microprocesador. Teradata, Sequent y Tandem crearon configuraciones de hardware para mayor capacidad. En los noventas llegó el almacenamiento en red y mejoras incrementales con procesadores de 64 bits.

Actualidad.

Las economías alrededor del cómputo han cambiado gracias a los avances en hardware. Son comunes los servidores con múltiples procesadores/núcleos, los sistemas de 4 y 8 vías son accesibles, la memoria es mucho más económica, los discos duros son de mayor capacidad y mucho menor costo.
Aún así, esta tercera generación de gestores de base de datos opera básicamente de la misma forma que la anterior, aunque los efectos de escalabilidad, desempeño, administración y ahorro en costo son dramáticamente mayores gracias a los avances de la tecnología.

Futuro cercano.

En los últimos años se han estado gestando innovaciones que poco a poco han ido permeando a los sistemas de base de datos. Aquí algunos de los más significativos:
  • Base de datos en memoria. La forma en que los datos están organizados y se manejan es totalmente diferente. Se usan estructuras de datos simples, se eliminan problemas de transferencia de información. Una operación se puede ejecutar de 20 a 200 veces más rápido que en sistemas convencionales. El acceso óptimo es en forma de interfaz de programación (APIs). Sybase, Oracle, Four Js y otros ofrecen algunas de estas capacidades.
  • Almacenamiento columnar. Para análisis estadístico, como almacenes de datos, es posible almacenar columnas en lugar de renglones, reduciendo la entrada y salida en forma significativa.
  • Almacenamiento no relacional. Para agregar grandes cantidades de datos y realizar operaciones de búsqueda ha aparecido éste modelo. BigTable de Google, SimpleDB de Amazon y Azure Storage de Microsoft son ejemplos. Algunos proveen funcionalidad para administrar documentos XML, como Tierlogic, Tamino, XMS. Los sistemas tradicionales incluyendo a Oracle, IBM y Microsoft han extendido sus productos a tipos de datos geográficos y no-estructurados.
  • La nube. Ofrece por primera vez la verdadera posibilidad de almacenamiento ilimitado. Bases de datos en data centers internos pueden “extenderse” a operar en centros de datos públicos. Microsoft SQL Azure es el mejor ejemplo.
  • Appliances. Para bases de datos de múltiples Terabytes, la “escalabilidad de un solo sistema” continuará siendo más económica que la nube. Las aplicaciones de misión crítica requieren cada vez más empaquetar hardware, software y una arquitectura preconfigurada a una carga específica de trabajo. Desde sistemas de 8 procesadores hasta contenedores con miles de servidores preconfigurados a la medida.
  • Sensores y tiempo real. En el mundo de los sistemas embebidos que manejan tecnologías como RFID y eventos en Internet, se hace necesario analizar la información y tomar acción en memoria y antes de almacenar datos. StreamInsight es una nueva característica en la reciente liberación de Microsoft SQL Server 2008 “R2”.
Con certeza veremos la aparición de una nueva generación de sistemas de base de datos durante los siguientes 3 años, y la gran batalla que la misma conllevará. Lo popular y lo gratuito está bien, pero ahí no está la innovación ni las nuevas oportunidades.

G) Seguridad y privacidad.

G) Seguridad y privacidad

  1) La seguridad de las bases de datos
La gran mayoría de los datos sensibles del mundo están almacenados en sistemas gestores de bases de datos comerciales tales como Oracle, Microsoft SQL Server entre otros, y atacar una bases de datos es uno de los objetivos favoritos para los criminales.
Esto puede explicar por qué los ataques externos, tales como inyección de SQL, subieron 345% en 2009, “Esta tendencia es prueba adicional de que los agresores tienen éxito en hospedar páginas Web maliciosas, y de que las vulnerabilidades y explotación en relación a los navegadores Web están conformando un beneficio importante para ellos”[*]
Para empeorar las cosas, según un estudio publicado en febrero de 2009 The Independent Oracle Users Group (IOUG), casi la mitad de todos los usuarios de Oracle tienen al menos dos parches sin aplicar en sus manejadores de bases de datos [1].
 Mientras que la atención generalmente se ha centrado en asegurar los perímetros de las redes por medio de, firewalls, IDS / IPS y antivirus, cada vez más las organizaciones se están enfocando en la seguridad de las bases de datos con datos críticos, protegiéndolos de intrusiones y cambios no autorizados.
En las siguientes secciones daremos las siete recomendaciones para proteger una base de datos en instalaciones tradicionales.          

2.        Principios básicos de seguridad de bases de datos
En esta sección daremos siete recomendaciones sobre seguridad en bases de datos, instaladas en servidores propios de la organización.
 Identifique su sensibilidad
No se puede asegurar lo que no se conoce.
Confeccione un buen catálogo de tablas o datos sensibles [2] de sus instancias de base de datos.  Además, automatice el proceso de identificación, ya que estos datos y su correspondiente ubicación pueden estar en constante cambio debido a nuevas aplicaciones o cambios producto de fusiones y adquisiciones.
Desarrolle o adquiera herramientas de identificación, asegurando éstas contra el malware [3], colocado en su base de datos el resultado de los ataques de inyección SQL [4]; pues aparte de exponer información confidencial debido a vulnerabilidades, como la inyección SQL, también facilita a los atacantes incorporar otros ataques en el interior de la base de datos.
Evaluación de la vulnerabilidad y la configuración
Evalúe su configuración de bases de datos, para asegurarse que no tiene huecos de seguridad.
Esto incluye la verificación de la forma en que se instaló la base de datos y su sistema operativo (por ejemplo, la comprobación privilegios de grupos de archivo -lectura, escritura y ejecución- de base de datos y bitácoras de transacciones).
Asimismo con  archivos con parámetros de configuración y programas ejecutables.
Además, es necesario verificar que no se está ejecutando la base de datos con versiones que incluyen vulnerabilidades conocidas; así como impedir consultas SQL desde las aplicaciones o capa de usuarios. Para ello se pueden considerar (como administrador):
  • Limitar el acceso a los procedimientos a ciertos usuarios.
  • Delimitar el acceso a los datos para ciertos usuarios, procedimientos y/o datos.
  • Declinar la coincidencia de horarios entre usuarios que coincidan.


 Endurecimiento
Como resultado de una evaluación de la vulnerabilidad a menudo se dan una serie de recomendaciones específicas. Este es el primer paso en el endurecimiento de la base de datos. Otros elementos de endurecimiento implican la eliminación de todas las funciones y opciones que se no utilicen.  Aplique una política estricta sobre que se puede y que no se puede hacer, pero asegúrese de desactivar lo que no necesita.
Audite
Una vez que haya creado una configuración y controles de endurecimiento, realice auto evaluaciones y seguimiento a las recomendaciones de auditoría para asegurar que no se desvíe de su objetivo (la seguridad).
Automatice el control de la configuración de tal forma que se registre cualquier cambio en la misma. Implemente alertas sobre cambios en la configuración. Cada vez que un cambio se realice, este podría  afectar a la seguridad de la base de datos.

Monitoreo
Monitoreo en tiempo real de la actividad de base de datos es clave para limitar su exposición, aplique o adquiera agentes inteligentes [5] de monitoreo, detección de intrusiones y uso indebido.
Por ejemplo, alertas sobre patrones inusuales de acceso,  que podrían indicar la presencia de un ataque de inyección SQL, cambios no autorizados a los datos, cambios en privilegios de las cuentas, y los cambios de configuración que se ejecutan a mediante de comandos de SQL.
 Recuerde que el monitoreo usuarios privilegiados, es requisito para la gobernabilidad de datos y cumplimiento de regulaciones como SOX y regulaciones de privacidad. También, ayuda a detectar intrusiones, ya que muchos de los ataques más comunes se hacen con privilegios de usuario de alto nivel.
El monitoreo dinámico es también un elemento esencial de la evaluación de vulnerabilidad, le permite ir más allá de evaluaciones estáticas o forenses. Un ejemplo clásico lo vemos cuando múltiples usuarios comparten credenciales con privilegios o un número excesivo de inicios de sesión de base de datos.
 Pistas de Auditoría
Aplique pistas de auditoría y genere trazabilidad de las actividades que afectan la integridad de los datos, o la visualización los datos sensibles.
Recuerde que es un requisito de auditoría, y también es importante para las investigaciones forenses.
La mayoría de las organizaciones en la actualidad emplean alguna forma de manual de auditoría de transacciones o aplicaciones nativas de los sistemas gestores de bases de datos.  Sin embargo, estas aplicaciones son a menudo desactivadas, debido a:
  • su complejidad
  • altos costos operativos
  • problemas de rendimiento
  • la falta de segregación de funciones y
  • la necesidad mayor capacidad de almacenamiento.
Afortunadamente, se han desarrollado soluciones con un mínimo de impacto en el rendimiento y poco costo operativo, basado en tecnologías de agente inteligentes.

Autenticación, control de acceso, y Gestión de derechos
No todos los datos y no todos los usuarios son creados iguales. Usted debe autenticar a los usuarios, garantizar la rendición de cuentas por usuario, y administrar los privilegios para de limitar el acceso a los datos.
Implemente y revise periódicamente los informes sobre de derechos de usuarios, como parte de un proceso de formal de auditoría.
Utilice el cifrado [6] para hacer ilegibles los datos confidenciales, complique el trabajo a los atacantes, esto incluye el cifrado de los datos en tránsito, de modo que un atacante no puede escuchar en la capa de red y tener acceso a los datos cuando se envía al cliente de base de datos.

martes, 2 de agosto de 2016

E) Simplicidad

E) Simplicidad.



De forma sencilla podemos indicar que una base de datos no es más que un conjunto de información relacionada que se encuentra agrupada o estructurada.
El archivo por sí mismo, no constituye una base de datos, sino más bien la forma en que está organizada la información es la que da origen a la base de datos.Las bases de datos relacionales pueden ser difíciles de gestionar y modificar. Por ejemplo, en una guía de teléfonos no es posible encontrar el número de un individuo si no sabemos su apellido, aunque conozcamos su domicilio.





Del mismo modo, en un archivo de pacientes en el que la información esté desordenada por el nombre de los mismos, será una tarea bastante engorrosa encontrar todos los pacientes que viven en una zona determinada. Los problemas  expuestos anteriormente se pueden resolver creando una base de datos informatizada.


Desde el punto de vista informático, una base de datos es un sistema formado por un conjunto de datos almacenados en discos que permiten el acceso directo a ellos y un conjunto de programas que manipulan ese conjunto de datos.


Desde el punto de vista más formal, podríamos definir una base de datos como un conjunto de datos estructurados, fiables y homogéneos, organizados independientemente en máquina, accesibles a tiempo real, compatibles por usuarios concurrentes que tienen necesidades de información diferente y no predecibles en el tiempo.


La idea general es que estamos tratando con una colección de datos que cumplen las siguientes propiedades:

  • Están estructurados independientemente de las aplicaciones y del soporte de almacenamiento que los contiene.
  • Presentan la menor redundancia posible.
  • Son compartidos por varios usuarios y/o aplicaciones.

En una computadora existen diferentes formas de almacenar información. Esto da lugar a distintos modelos de organización de la base de datos: jerárquico, red, relacional y orientada a objeto.
Los sistema relacionales son importantes porque ofrecen muchos tipos de procesos de datos, como: simplicidad y generalidad, facilidad de uso para el usuario final, períodos cortos de aprendizaje y las consultas de información se especifican de forma sencilla.
Las tablas son un medio de representar la información de una forma más compacta y es posible acceder a la información contenida en dos o más tablas. Más adelante explicaremos que son las tablas.


D) Capacidad de Acceso.

D) Capacidad de Acceso.





La administración de identidades y acceso es una capacidad de la optimización de infraestructura principal y la base para implementar muchas capacidades en el modelo de optimización de infraestructura. En la tabla siguiente se incluyen los desafíos de alto nivel, las soluciones aplicables y las ventajas de adoptar el nivel estandarizado en la administración de identidades y acceso.
La administración continua de identidades y acceso se centra en las siguientes capacidades, tal como se describe en la serie de administración de identidades y acceso de Microsoft:
  • Base de la administración de identidades y acceso
    • Conceptos fundamentales.
    • Plataforma e infraestructura.
  • Administración del ciclo de vida de la identidad.
    • Administración de contraseñas intranet y extranet.
    • Aprovisionamiento y flujo de trabajo
  • Agregación y sincronizacion de identidades.
  • Administración de acceso e inicio de sesión único
    • Administración y acceso a intranet .
    • Administración y acceso a extranet .




Tenga en cuenta que las capacidades descritas más arriba son componentes clave del servicio de administración de identidades y acceso en una organización. Para obtener más información, consulte serie de administración de identidades y acceso de Microsoft.
En el modelo de optimización de infraestructura, el nivel estandarizado de la administración de identidades y acceso satisface la necesidad de servicios de directorio para la autenticación de usuarios y requiere un servicio de directorio unificado para la autenticación de al menos el 80% de los usuarios. Por otro lado, este requisito implica que todos los clientes sean compatibles con el servicio de directorio.

Requisito: Servicios de directorio para la autenticación de usuarios

Destinatarios

El nivel estandarizado de optimización requiere disponer de un servicio de directorio Active Directory en la organización y se usa para autenticar un 80 por ciento o más de los usuarios. Lea esta sección si no usa Active Directory para la autenticación de un 80 por ciento o más de los usuarios.

Introducción

Durante la jornada laboral del usuario, se requiere la autenticación de usuarios por muchas razones. El acceso a la red, a las aplicaciones, a los datos y al correo electrónico son algunos ejemplos típicos. Cuando se habilitan los servicios de directorio para la autenticación de usuarios, todos estos requisitos de autenticación por separado se centralizan y unifican. Un único inicio de sesión da acceso a todos los recursos, las aplicaciones y los datos a los que el usuario tiene autorización de acceso.





Fase 1: Evaluación

La fase de evaluación realiza principalmente un inventario de los servicios de directorio (si los hay) que se usan en la organización. Se definirán las razones para cada servicio de directorio y el modo de usarlos. Si la organización no dispone de servicio de directorio, tendrá que examinar cómo se administran las identidades actualmente y de qué procesos dispone para proteger el acceso a recursos de datos. Puede tratarse de procesos formales/documentados o bien informales/no documentados.

Fase 2: Identificación

El proceso de diseño del servicio de directorio empieza por identificar las tecnologías disponibles para proporcionar el servicio y las necesidades de la organización en lo que a la implementación de un servicio de directorio se refiere.
El modelo de optimización de infraestructura principal requiere una infraestructura de Active Directory y proporciona compatibilidad de base para muchos servicios necesarios para la organización, entre los que se encuentran la mensajería y la colaboración, la administración de sistemas y los servicios de seguridad. Active Directory es el servicio de directorio para redes incluido en Microsoft® Windows® 2000 y Windows Server® 2003.

Fase 3: Evaluación y planeación

La fase de evaluación y planeación guía a través del proceso de planeación y diseño para satisfacer las necesidades de la organización. Es imprescindible que la información relativa a los empleados y el uso que hacen de los recursos informáticos se administre con un sólo sistema de autenticación coherente, uno que posea las características necesarias para administrar esta información de la forma más eficaz.
  • Debe organizarse y presentarse como directorio.
  • Debe admitirse un método común de consulta, indistintamente del tipo de datos que se soliciten.
  • La información con características similares debe administrarse de manera parecida.



Los modos de agrupar y administrar la información debe determinarlos la organización con maneras que complementen los sistemas existentes de la organización.
Diseño del servicio de directorio
Al diseñar el servicio se usan cinco categorías de directorios:
  • Directorios de uso específico
  • Directorios de aplicación
  • Directorios centrados en la red
  • Directorios genéricos
  • Metadirectorios
Un administrador de Active Directory tiene control completo acerca de cómo se presenta la información en el directorio. La información puede agruparse en contenedores denominados unidades organizativas (UO), que se suelen estructurar para facilitar el almacenamiento jerárquico de los datos. Los tipos de datos almacenados en el directorio se definen mediante un esquema que especifica clases de datos denominados objetos. Un objeto de usuario, por ejemplo, es la clase Usuario definida en el esquema. Los atributos del objeto de usuario almacenan información; por ejemplo, nombre de usuario, contraseña y número de teléfono El administrador puede actualizar el esquema para incluir nuevos atributos o clases según sea necesario.

C) Minima redundancia.

C) Mínima redundancia.








En bases de datos o en ficheros, la redundancia hace referencia al almacenamiento de los mismos datos varias veces en diferentes lugares. La redundancia de datos puede provocar problemas como:










* Incremento del trabajo: como un mismo dato está almacenado en dos o más lugares, esto hace que cuando se graben o actualicen los datos, deban hacerse en todos los lugares a la vez.






* Desperdicio de espacio de almacenamiento: ya que los mismos datos están almacenados en varios lugares distintos, ocupando así más bytes del medio de almacenamiento. Este problema es más evidente en grandes bases de datos.
 







* Inconsistencia de datos: esto sucede cuando los datos redundantes no son iguales entre sí. Esto puede suceder, por ejemplo, cuando se actualiza el dato en un lugar, pero el dato duplicado en otro lugar no es actualizado.



Si una base de datos está bien diseñada, no debería haber redundancia de datos (exceptuando la redundancia de datos controlada, que se emplea para mejorar el rendimiento en las consultas de bases de datos).




B) Desempeño.

B) Desempeño.


Cuando diseñe una base de datos, debe asegurarse de que realiza todas las operaciones importantes de forma rápida y correcta. Algunos problemas de rendimiento se pueden resolver una vez que la base de datos se encuentra en producción. Sin embargo, otros pueden ser el resultado de un diseño inadecuado y se pueden solucionar mediante el cambio de la estructura y el diseño de la base de datos.



Cuando diseña e implementa una base de datos, debe identificar las tablas de gran tamaño y los procesos más complejos que realizará la base de datos. También debe prestar una atención especial al rendimiento cuando diseña estas tablas. Además, debe considerar los efectos que puede tener en el rendimiento el aumento del número de usuarios con acceso a la base de datos.
Los siguientes cambios de diseño, entre otros, pueden mejorar el rendimiento:
  • Si una tabla que contiene cientos de miles de filas debe resumirse en un informe diario, puede agregar a la tabla una o varias columnas que contengan datos previamente agregados para utilizarlos sólo en dicho informe.
  • Las bases de datos pueden normalizarse en exceso. Esto significa que la base de datos se define con un gran número de tablas pequeñas interrelacionadas. Cuando la base de datos procesa los datos de estas tablas, debe realizar muchas más operaciones para combinar los datos relacionados. Este procesamiento adicional puede repercutir negativamente en el rendimiento de la base de datos. En esos casos, una reducción de la normalización de la base de datos para simplificar procesos complejos puede mejorar el rendimiento.

A) Versatilidad para la representación de información.

Versatilidad para la representación de información.


Debe distinguirse entre dato e información. Dato es cualquier número, imagen, sonido, símbolo, nombre, etc que no permite tomar ninguna decisión, porque no tienen un significado concreto, los datos deben procesarse para dotarlos de significado y convertirlos en información. Eso es lo que ocurre cuando trabajamos con un sistema informático, los resultados que nos muestra el ordenador son para nosotros información que nos ayuda en alguna tarea.


El ordenador, para poder procesar los distintos datos, debe convertirlos a un lenguaje numérico binario (0 y 1). Debido a la forma en que están construidos y al uso de los componentes electrónicos sólo dos valores pueden representarse. Para convertir los textos en números se utiliza un código de representación llamado ASCII (American Standard Code for Information Interchange) que es un estándar mundial.



Una vez pasados a números se deben convertir esos números en valores binarios. Otro tipo de datos como sonidos o imágenes también deben convertirse en valores numéricos. En este apartado se verá cómo pasar de un sistema de numeración cualquiera (como el decimal) al sistema binario de los ordenadores.




¿Que es una independencia física?




¿Que es una independencia física?

Independencia física.

Las cuatro capas también representan independencia física: es posible implementar la lógica en capas distintas en varias plataformas de hardware (es decir, varias configuraciones de procesador, conjuntos de chips y sistemas operativos). Esta independencia permite ejecutar componentes de aplicación distribuida en los equipos que mejor se adapten a las necesidades informáticas individuales y a maximizar el ancho de banda de red.





La forma de asignar componentes de aplicación o componentes de infraestructura a un entorno de hardware (es decir, la arquitectura de implementación) depende de muchos factores, en función de la escala y la complejidad de la solución de software. Para implementaciones muy pequeñas, una arquitectura de implementación puede implicar sólo unos pocos equipos. Para las implementaciones a gran escala, la asignación de los componentes en un entorno de hardware puede tener en cuenta factores como la velocidad y potencia de los distintos equipos, la velocidad y el ancho de banda de los enlaces de la red, las consideraciones de seguridad y de servidores de seguridad y las estrategias de duplicación de componentes para obtener escalabilidad y una alta disponibilidad.

lunes, 4 de julio de 2016

¿Que es independencia logica?

¿Que es independencia lógica?

Independencia lógica.

La independencia lógica de los datos: debe permitir una cierta independencia entre los atos vistos por las aplicaciones y la estructura lógica de ellos en la realidad. 

Ventajas:
 Soporte de la evolución de los datos vistos y que cada grupo de trabajo vea esos datos como cada grupo lo desea.

La capacidad para modificar una definición de esquema en un nivel sin que afecte a una definición esquema en el siguiente nivel mas alto s llama Independencia de datos.



Las cuatro capas del modelo arquitectónico representan independencia lógica: puede modificar la lógica de la 
aplicación en una capa (por ejemplo, en la capa de servicio de negocios) independientemente de la lógica de las 
otras capas. Puede cambiar la implementación de la lógica de negocios sin tener que cambiar o actualizar la lógica de la capa de presentación o la de cliente.


¿Que es independencia de los datos?





¿Que es independencia de los datos?


La independencia de datos es una forma de gestión de bases de datos que mantiene los datos separados de otros programas que podrían usar esos datos. De forma parecida a una medida adicional de seguridad, esta independencia de datos se asegura de que la información no pueda ser modificada o reorganizada por ningún otro programa. De esta manera, los datos se mantienen accesibles pero de la misma manera permanecerán iguales y no podrán ser dañados por otras aplicaciones que acceden a ellos. La gestión de bases de datos en un entorno centralizado se basa en el proceso de la independencia de datos. Mientras que la transparencia dela información todavía existe al ser accesible a otras aplicaciones y medios, los datos permanecen en un modo de solo lectura. El proceso de tener esta consistencia en los datos, hace que el mantenimiento y gestión en general de una base de datos sea mucho más fácil.

El concepto de independencia de datos es diferente a otro sistema que se refiere a la dependencia de datos. En esta segunda definición, los datos usados para hacer funcionar una aplicación son realmente representados en un código fuente para el programa. La capacidad de los datos para ser modificados por el programa significa que los datos no son considerados constantes y pueden cambiar tocando el código fuente o usando el programa de otras maneras para adaptarlo a las necesidades.


Una de las funciones de la independencia de datos es restringir acceso a la estructura de almacenamiento de los datos por aplicaciones de usuario., Al esconder de forma efectiva los códigos de las aplicaciones que acceden a la información, la posibilidad de que puedan cambiar la naturaleza de los datos es prácticamente imposible. Por eso, la integridad de los datos queda protegida e inamovible sin importar cuantas bases de datos accedan al core de los datos. Esta independencia normalmente es pensada en términos de dos niveles o tipos. La independencia de los datos lógicos hace posible cambiar la estructura de los datos de forma independiente o modificar las aplicaciones o programas que hacen uso de los datos. No hay necesidad de escribir aplicaciones actuales como parte del proceso, o añadir o quitar datos del sistema.