jueves, 13 de junio de 2013

DEFINICIONES SISTEMICAS

SUBSISTEMA

Un subsistema es un sistema que es parte de otro sistema mayor (suprasistema o supersistema).

En otras palabras, un subsistema es un conjunto de elemento interrelacionados que, en sí mismo, es un sistema, pero a la vez es parte de un sistema superior.

leer mas en:http://www.alegsa.com.ar/Dic/subsistema.php



SUPRASISTEMA

Un suprasistema o supersistema, es el sistema que integra a los sistemas desde el punto de vista de pertenencia.

En otras palabras, es un sistema mayor que contiene
sistemas menores.


Un Suprasistema es aquel Sistema del cual dependen jerárquicamente los sistemas de referencia, El sistema de referencia puede ser individual o colectivo, como un átomo, un conjunto de átomos, un ser humano, un grupo de seres humanos, un municipio, una empresa, la tierra, el sistema solar, etc. Es, por lo tanto, un concepto relativo, que depende de los objetivos de la actividad o de los intereses del usuario. Cada ser humano, o cada grupo social se consideran a sí mismo como Centro de Referencia de sus entornos y de los sistemas que fomentan esos entornos. El Suprasistema de cualquier sistema, es el sistema superior siguiente, y que involucra varios subsistemas.




Ejemplo

Sistema: UNEFA
Subsistema: Departamento Evaluación y control, Coordinaciones.
Suprasistema: CNU

Al definir un sistema se dice que es un conjunto de elementos que mantienen ciertas relaciones entre sí; pero cada uno de esos elementos puede considerarse, a su vez, como un sistema en sí mismo. Por ejemplo, en una organización existen departamentos (contabilidad, producción , ventas, etc. ) cada uno de los cuales puede considerarse como un subsistema. En cada departamento, probablemente existen secciones; por ejemplo, en el departamento de ventas podría haber la secciones de ventas al mayor, ventas al menor, entre otros, las cuales podrían considerarse corno subsistemas de los departamentos. Por otro lado, la organización podría considerarse como un subsistema de la economía nacional (o sea, de un suprasistema ). El país puede definirse como un suprasistema mayor aún (el mundo ) y este, a su vez como un subsistema de un suprasistema: el universo. Entonces, el análisis que desee realizarse sobre las relaciones entre los elementos del conjunto, deberá basarse en una definición de los límites del sistema, o sea, establecer cuáles elementos deberán quedar incluidos dentro del conjunto.
 

VIABILIDAD

Viabilidad es la cualidad de viable (que tiene probabilidades de llevarse a cabo o de concretarse gracias a sus circunstancias o características). El concepto también hace referencia a la condición del camino donde se puede transitar.




Se conoce como análisis de viabilidad al estudio que intenta predecir el eventual éxito o fracaso de un proyecto. Para lograr esto parte de datos empíricos (que pueden ser contrastados) a los que accede a través de diversos tipos de investigaciones (encuestas, estadísticas, etc.).

Los análisis de viabilidad se desarrollan en el ámbito gubernamental o corporativo. Se trata de un recurso útil antes de la iniciación de una obra o del lanzamiento de un nuevo producto. De este modo, se minimiza el margen de error ya que todas las circunstancias vinculadas a los proyectos son estudiadas.

Puede hablarse de viabilidad técnica para hacer referencia a aquello que atiende a las características tecnológicas y naturales involucradas en un proyecto. El estudio de la viabilidad técnica suele estar vinculado a la seguridad y al control (por ejemplo, si la idea es construir un puente, la viabilidad técnica estará referida al estudio del terreno en cuestión y a las condiciones ambientales para evitar que se caiga).


La viabilidad económica, en cambio, se relaciona con los recursos financieros existentes para poner en marcha un proyecto y con las ganancias que, eventualmente, se esperan obtener. Si la puesta en marcha de un emprendimiento productivo requiere de una inversión de 100.000 dólares y dicho emprendimiento podría generar una ganancia máxima de unos 1.000 dólares al año, el proyecto no es viable desde el punto de vista económico.


PROCESO

Un proceso es un conjunto de actividades o eventos (coordinados u organizados) que se realizan o suceden (alternativa o simultáneamente) bajo ciertas circunstancias con un fin determinado. Este término tiene significados diferentes según la rama de la ciencia o la técnica en que se utilice.



Un proceso puede informalmente entenderse como un programa en ejecución. Formalmente un proceso es "Una unidad de actividad que se caracteriza por la ejecución de una secuencia de instrucciones, un estado actual, y un conjunto de recursos del sistema asociados".[1]
Para entender lo que es un proceso y la diferencia entre un programa y un proceso, A. S. Tanenbaum propone la analogía "Un científico computacional con mente culinaria hornea un pastel de cumpleaños para su hija; tiene la receta para un pastel de cumpleaños y una cocina bien equipada con todos los ingredientes necesarios, harina, huevo, azúcar, leche, etcétera." Situando cada parte de la analogía se puede decir que la receta representa el programa (el algoritmo), el científico computacional es el procesador y los ingredientes son las entradas del programa. El proceso es la actividad que consiste en que el científico computacional vaya leyendo la receta, obteniendo los ingredientes y horneando el pastel.


RECURSIVIDAD

Recurrencia, recursión o recursividad es la forma en la cual se especifica un proceso basado en su propia definición. Siendo un poco más precisos, y para evitar el aparente círculo sin fin en esta definición:

Un problema que pueda ser definido en función de su tamaño, sea este N, pueda ser dividido en instancias más pequeñas (< N) del mismo problema y se conozca la solución explícita a las instancias más simples, lo que se conoce como casos base, se puede aplicar inducción sobre las llamadas más pequeñas y suponer que estas quedan resueltas.





La recursividad es un concepto difícil de entender en principio, pero luego de analizar diferentes problemas aparecen puntos comunes.

En Java los métodos pueden llamarse a sí mismos. Si dentro de un método existe la llamada a sí mismo decimos que el método es recursivo.

Cuando un método se llama a sí mismo, se asigna espacio en la pila para las nuevas variables locales y parámetros.

Al volver de una llamada recursiva, se recuperan de la pila las variables locales y los parámetros antiguos y la ejecución se reanuda en el punto de la llamada al método.

EJEMPLO

public class Recursividad {

    void repetir() {
        repetir();
    }
   
    public static void main(String[] ar) {
        Recursividad re=new Recursividad();
        re.repetir();
    }
}

Las Torres de Hanoi

A continuación se verá cómo pueden usarse técnicas recursivas para lograr una solución lógica y elegante de un problema que no se especifica en términos recursivos. EL problema es el de "las torres de Hanoi", cuyo planteamiento inicial se muestra en la figura a continuación...




Hay tres postes: A, B y C. En el poste A se ponen cinco discos de diámetro diferente de tal manera que un disco de diámetro mayor siempre queda debajo de uno de diámetro menor. El objetivo es mover los discos al poste C usando B como auxiliar. Sólo puede moverse el disco superior de cualquier poste a otro poste, y un disco mayor jamás puede quedar sobre uno menor. Considérese la posibilidad de encontrar una solución. En efecto, ni siquiera es claro que exista una.

Ahora se verá si se puede desarrollar una solución. En lugar de concentrar la atención en una solución para cinco discos, considérese el caso general de n discos. Supóngase que se tiene una solución para n – 1 discos y que en términos de ésta, se pueda plantear la solución para n – 1 discos. El problema se resolvería entonces. Esto sucede porque en el caso trivial de un disco (al restar 1 de n de manera sucesiva se producirá, al final, 1) la solución es simple: sólo hay que el único disco del poste A a C. Así se habrá desarrollado una solución recursiva si se plantea una solución para n discos en términos de n – 1. Considérese la posibilidad de encontrar tal relación. Para el caso de cinco discos en particular, supóngase que se conoce la forma de mover cuatro de ellos del poste A al otro, de acuerdo con las reglas. ¿Cómo puede completarse entonces el trabajo de mover el quinto disco? Cabe recordar que hay 3 postes disponibles.

Supóngase que se supo cómo mover cuatro discos del poste A al C. Entonces, se pondrá mover éstos exactamente igual hacia B usando el C como auxiliar. Esto da como resultado la situación los cuatro primeros discos en el poste B, el mayor en A y en C ninguno. Entonces podrá moverse el disco mayor de A a C y por último aplicarse de nuevo la solución recursiva para cuatro discos para moverlo de B a C, usando el poste A como auxilia. Por lo tanto, se puede establecer una solución recursiva de las torres de Hanoi como sigue:
Para mover n discos de A a C usando B como auxiliar:

1.       Si n = = 1, mover el disco único de A a C y parar.
2.       Mover el disco superior de A a B n – 1 veces, usando C como auxiliar.
3.       Mover el disco restante de A a C.
4.       Mover los disco n – 1 de B a C usando A como auxiliar

Con toda seguridad este algoritmo producirá una solución completa por cualquier valor de n. Si n = = , el paso 1 será la solución correcta. Si n = = 2, se sabe entonces que hay una solución para n – 1 = = 1, de manera tal que los pasos 2 y 4 se ejecutaran en forma correcta. De manera análoga, cuando n = = 3 ya se habrá producido una solución para n – 1 = = 2, por lo que los pasos 2 y 4 pueden ser ejecutados. De esta forma se puede mostrar que la solución funciona para n = = 1, 2, 3, 4, 5,... hasta el valor para el que se desee encontrar una solución. Adviértase que la solución se desarrollo mediante la identificación de un caso trivial (n = = 1) y una solución para el caso general y complejo (n) en términos de un caso mas simple (n – 1).


SINERGIA

Sinergia quiere decir literalmente trabajando en conjunto. Actualmente se refiere al fenómeno en el cual el efecto de la influencia o trabajo de dos o más agentes actuando en conjunto es mayor al esperado considerando a la suma de las acciones de los agentes por separado.




HISTORIA DE LA SINERGIA

La historia de la Sinergia comienza curiosamente en el ámbito religioso, usado por ejemplo por San Pablo en sus epístolas, refiriéndose al resultado del trabajo conjunto entre el hombre y Dios. Solo comienza el término a ser utilizado en un contexto no teológico en 1925, con la teoría general de sistemas propuesta por el biólogo alemán, Ludwig Von Bertanlanffy en 1925. Un sistema consiste básicamente en un conjunto de componentes que se relacionan, intentando alcanzar uno o más objetivos. He aquí la relación existente entre la teoría general de los sistemas y el concepto de sinergia. Sin embargo, sólo se da la sinergia cuando el o los objetivos logrados por la organización o sistema son alcanzados con creces, considerándolos como un resultado obtenido en conjunto mayor o mejor que el posible de alcanzar producto de sus órganos o partes individualmente.

Una organización es considerada sinérgica cuando los órganos que lo componen no pueden realizar una función determinada sin depender del resto de los miembros que componen dicha organización. De aquí viene la afirmación aristotélica relacionada con este concepto: “el todo no es igual a la suma de las partes”, u otros lo argumentarían utilizando el siguiente razonamiento matemático: 2 + 2 = 5, lo cual es un absurdo en términos absolutos, pero tiene sentido desde el punto de vista sistémico. Por ende el total corresponde a la conservación del sistema teniendo en cuenta la acción en conjunto que realizan sus componentes.

La sinergia es un concepto importante en un sinnúmero de aplicaciones; por ejemplo en la computación, donde las máquinas son capaces de procesar números notablemente mejor que los seres humanos, pero carecen de sentido común, por lo que el trabajo en conjunto de computadoras y humanos da excelentes resultados, mejores que los posibles de lograr trabajando por separados. En el ámbito de la medicina encontramos el concepto en la toxicología, donde los efectos de la suma de compuestos en un organismo puede ser muy diferente a la acción de los compuestos por separados. Pero la gran aplicación se da en el ámbito de las relaciones humanas en la empresa, y actualmente el concepto está orientado a crear un marco conceptual para todo lo que es el trabajo en equipo.

En la cotidianidad, la sinergia es posible ser vista fácilmente en los sistemas mecánicos, no obstante en aquellos que contienen componentes sociales el concepto a veces puede hacerse algo ambiguo, por ejemplo la sinergia presentada en un grupo familiar, podría ser considerada como la vida. O también en el caso de un equipo de deportistas, la sinergia podrías ser el placer por la competencia junto con la amistad. En cuanto a estos sistemas sociales pueden existir dos tipos de sinergia; la positiva y la negativa. La primera dice relación con una integración entre los miembros que componen la organización y que por ende obtienen resultados fructíferos. Por el contrario si la organización contiene líderes que no contribuyen positivamente, y en consecuencia los resultados no son los esperados, se habla de una sinergia negativa.

La sinergia en la teoría general de sistemas

La palabra aumenta su importancia gracias a la teoría general de sistemas que fue desarrollada en 1945 por Ludwig von Bertalanffy. Relacionada con la teoría de sistemas, la forma más sencilla para explicar el término sinergia es examinando un objeto o ente tangible o intangible y si al analizar una de las partes aisladamente ésta no da una explicación relacionada con las características o la conducta de aquel, entonces se está hablando de un objeto sinérgico. Ligado a este concepto se encuentra otro, el de recursividad el cual nos señala que un sistema sinérgico está compuesto a su vez de subsistemas que también son sinérgicos. También se dice que existe sinergia cuanto "el todo es más que la suma de las partes" Donde ligado a ello, podemos señalar que puede existir a su vez, una sinergia positiva, o en caso contrario, negativa. En el primero de los casos -y a modo de simplificar su definición- diremos por tanto que 2+2>4, y en la negativa, cuando la suma de sus partes estropea dicha coalición, vale decir 2+2<4.

COMPONENTES

Un sistema se puede considerar como una parte del Universo, aislada del resto, que consta de una serie de componentes que lo identifican y diferencian.

a) Componentes estructurales: determinan la organización espacial del sistema.
  • Frontera: límite real o imaginario que separa un sistema de su entorno. Algunos ejemplos son la membrana celular, la piel o la linde de un bosque. La frontera debe considerarse más como una zona de intercambio que como una barrera.
  • Elementos: son los constituyentes del sistema y que se pueden cuantificar, como las especies vegetales de un bosque. Un tipo especial de elementos son los depósitos, donde las reservas de los componentes que proporcionan materia, energía o información.
  • Red de interacciones: el conjunto de relaciones entre los componentes y depósitos del sistema que favorecen los intercambios de materia, energía o información. Las relaciones también se dan entre el sistema y el entorno.
b) Componentes funcionales: son los procesos que desarrollan los componentes estructurales en un tiempo determinado.
  • Flujos: muestran la circulación de materia, energía e información entre los componentes del sistema y suelen representarse mediante flechas.
  • Válvulas: son elementos que regulan los flujos, transforman la información recibida aumentando o disminuyendo el flujo.
  • Bucles de alimentación: son relaciones circulares que permitan al sistema autorregularse.
Los límites del sistema

Un sistema es una porción del espacio y su contenido.

Todo sistema se encuentra dentro de una superficie cerrada que lo separa del resto del Universo.

La superficie es el límite del sistema y puede ser real, como la membrana de una célula, o ficticia, como el límite que se establece en una charca o en un encinar.

FRONTERAS

El límite o frontera de un sistema es la línea (que puede ser imaginaria) que demarca lo que está dentro y lo que está fuera del sistema.

Por ejemplo, una computadora es un sistema físico. Sus límites son visibles y, por lo tanto, fáciles de determinar: el monitor, el gabinete y sus periféricos.

Es usual que un sistema esté formado por subsistemas. Por lo tanto, primero debe tener en cuenta qué se estudiará como sistema (si el sistema entero, o alguno de sus subsistemas). Eso es fundamental para determinar las fronteras de un sistema.

Por ejemplo, si se estudia el cuerpo humano, en sí mismo es un sistema. Pero también está formado por múltiples sistemas: sistema digestivo, sistema nervioso, sistema cardiopulmonar, etc. Incluso se podría estudiar cada órgano en el cuerpo como un único sistema (pulmones, hígado), aun más, podría estudiarse como sistema una célula específica del cuerpo.

Como verás, para establecer límites, una vez más, es fundamental saber qué sistema se estudiará. Si es físico, suele ser más fácil establecer sus límites, porque los límites son visibles (o físicos) y dependen de la definición que demos del sistema y su objetivo.

En los sistemas que no son físicos o que son más bien conceptuales, puede ser más difícil establecer límites. En estos casos hay que definir el sistema y su objetivo... para luego descubrir qué partes componen el sistema. Las partes (que pueden ser subsistemas) deben interactuar profundamente entre sí y trabajar como un todo.

También hay que determinar qué entradas y qué salidas tiene el sistema. Dichas entradas/salidas pueden ser datos, energía, etc. Determinando las entradas y salidas, es posible saber también los límites del sistema.

Finalmente sirve descubrir también qué otros sistemas existen "alrededor" del sistema en estudio y si interactúan con éste. Determinar si esos otros sistemas son o no parte del sistema en estudio, también nos permite imaginar las fronteras de un sistema.


PARAMETROS DEL SISTEMA

El sistema se caracteriza por ciertos parámetros. Parámetros son constantes arbitrarias que caracterizan, por sus propiedades, el valor y la descripción dimensional de un sistema específico o de un componente del sistema.

Los parámetros de los sistemas son:

Entrada o insumo o impulso (input): es la fuerza de arranque del sistema, que provee el material o la energía para la operación del sistema.

Salida o producto o resultado (output): es la finalidad para la cual se reunieron elementos y relaciones del sistema. Los resultados de un proceso son las salidas, las cuales deben ser coherentes con el objetivo del sistema. Los resultados de los sistemas son finales, mientras que los resultados de los subsistemas con intermedios.

Procesamiento o procesador o transformador (throughput): es el fenómeno que produce cambios, es el mecanismo de conversión de las entradas en salidas o resultados. Generalmente es representado como la caja negra, en la que entran los insumos y salen cosas diferentes, que son los productos.

Retroacción o retroalimentación o retroinformación (feedback): es la función de retorno del sistema que tiende a comparar la salida con un criterio preestablecido, manteniéndola controlada dentro de aquel estándar o criterio.

Ambiente: es el medio que envuelve externamente el sistema. Está en constante interacción con el sistema, ya que éste recibe entradas, las procesa y efectúa salidas. La supervivencia de un sistema depende de su capacidad de adaptarse, cambiar y responder a las exigencias y demandas del ambiente externo. Aunque el ambiente puede ser un recurso para el sistema, también puede ser una amenaza.

Entre el sistema y el contexto, determinado con un límite de interés, existen infinitas relaciones. Generalmente no se toman todas, sino aquellas que interesan al análisis, o aquellas que probabilísticamente presentan las mejores características de predicción científica.

Rango:

En el universo existen distintas estructuras de sistemas y es factible ejercitar en ellas un proceso de definición de rango relativo. Esto produciría una jerarquización de las distintas estructuras en función de su grado de complejidad.

Cada rango o jerarquía marca con claridad una dimensión que actúa como un indicador claro de las diferencias que existen entre los subsistemas respectivos.

Esta concepción denota que un sistema de nivel 1 es diferente de otro de nivel 8 y que, en consecuencia, no pueden aplicarse los mismos modelos, ni métodos análogos a riesgo de cometer evidentes falacias metodológicas y científicas.

Para aplicar el concepto de rango, el foco de atención debe utilizarse en forma alternativa: se considera el contexto y a su nivel de rango o se considera al sistema y su nivel de rango.
Refiriéndonos a los rangos hay que establecer los distintos subsistemas. Cada sistema puede ser fraccionado en partes sobre la base de un elemento común o en función de un método lógico de detección.

El concepto de rango indica la jerarquía de los respectivos subsistemas entre sí y su nivel de relación con el sistema mayor.

Retroalimentación:

La retroalimentación se produce cuando las salidas del sistema o la influencia de las salidas del sistemas en el contexto, vuelven a ingresar al sistema como recursos o información.
La retroalimentación permite el control de un sistema y que el mismo tome medidas de corrección en base a la información retroalimentada.

Centralización y descentralización:

Un sistema se dice centralizado cuando tiene un núcleo que comanda a todos los demás, y estos dependen para su activación del primero, ya que por sí solos no son capaces de generar ningún proceso.

Por el contrario los sistemas descentralizados son aquellos donde el núcleo de comando y decisión está formado por varios subsistemas. En dicho caso el sistema no es tan dependiente, sino que puede llegar a contar con subsistemas que actúan de reserva y que sólo se ponen en funcionamiento cuando falla el sistema que debería actuar en dicho caso.

Los sistemas centralizados se controlan más fácilmente que los descentralizados, son más sumisos, requieren menos recursos, pero son más lentos en su adaptación al contexto. Por el contrario los sistemas descentralizados tienen una mayor velocidad de respuesta al medio ambiente pero requieren mayor cantidad de recursos y métodos de coordinación y de control más elaborados y complejos.

Adaptabilidad:

Es la propiedad que tiene un sistema de aprender y modificar un proceso, un estado o una característica de acuerdo a las modificaciones que sufre el contexto. Esto se logra a través de un mecanismo de adaptación que permita responder a los cambios internos y externos a través del tiempo.

Para que un sistema pueda ser adaptable debe tener un fluido intercambio con el medio en el que se desarrolla.

Después de tener como base el marco conceptual, es necesario precisar el pensamiento sistémico que contempla dialécticamente lo global y lo local en una organización .Se considera la organización como un sistema socio-técnico abierto integrado como de varios subsistemas y con esta perspectiva con una visión de integración y estructuración de actividades humanas, tecnológicas y administrativas.


VARIABLES

Una variable es un pequeño pedazo de memoria que se reservará para determinada función y a la que se le va a asignar un valor, el cual podrá ser: un número, una ruta de directorios..., etc.) que podrá ser leído, consultado o incluso modificado.

Tenemos tres tipos de variables: De entorno, que forman parte del entorno del sistema, incorporadas, que las proporciona el sistema y no pueden ser modificadas con un programa o la shell, y de usuario, las cuales sí se pueden modificar por la shell. Un ejemplo de variable es PATH, que los que en alguna ocasión hayan usado el MS-DOS o el FreeDos ya conocerán, la cual define las rutas que deben ser "miradas" por la shell para buscar órdenes o ejecutables más fácilmente evitando el tener que teclear complejas vías de acceso.

En una sesión de trabajo las variables de entorno en la shell son referencias a valores. Existen dos tipos: locales y globales: Las locales Se definen en la Shell actual y solamente son conocidas por esta en la sesión que esté vigente. Las globales, en cambio, son exportadas desde un proceso activo a todos los procesos hijos.

$ echo $PATH
/bin:/usr/bin:/usr/X11R6/bin:/home/quetzatl/bin

La orden anterior podría estar mostrando un path típico del sistema. Mira con atención el uso del carácter $; el cual Indica el principio del nombre de una variable shell, ya que, sin él, la orden echo de volvería únicamente la cadena de texto pasada a continuación. De manera que siempre que queramos ver el contenido de una variable debemos usar el signo $.

Definir Variables:

$ a=gato

La variable tiene un nombre: a, y un valor: gato. Fíjate en que no debe dejar espa-cios entre el nombre, el igual y el valor. Tras haberla definido podremos usar el valor de esta variable refiriéndonos a ella por su nombre.

Entonces: ¿dónde se podrán utilizar variables de este modo? Pues bien, las podremos utilizar en la ejecución de órdenes desde el indicativo del sistema (prompt), por ejemplo, o en el uso de scripts de la shell. Pero, hay que tener también muy presente que, las variables de usuario creadas de este modo solamente funcionan en la shell (o subshell) en que se hayan definido.
Si comprobamos el valor de la variable a=gato que definimos más arriba veremos que está correcto, pero si después lanzamos otro shell y volvemos a hacer la comprobación podremos advertir que aquí ya no aparece. La variable a solo es visible desde la shell donde se haya definido Ya que es una variable local.

Si queremos o necesitamos conocer las variables disponibles podremos ver una lista de las mismas utilizando la orden env, con la que podremos ver una lista de variables iniciales del entorno o globales y con la orden set veremos una lista de variables locales.

A fin de cuentas, en cada una de las shell que se vayan abriendo tendremos acceso solamente a las variables locales que tengan definidas. Es muy importante tener en cuenta esto de cara a la ejecución de aquellos scripts que, por cualquier razón, requieran del uso de una variable determinada.

Exportar el Entorno

Si se diera el caso de necesitar, por cualquier motivo, que una variable sea accesible por programas ejecutados en otras shells, sería imprescindible exportarla.

La solución a este pequeño problema es lo que se conoce como exportar variables. La orden export es capaz de hacer dos cosas:

1.Sin argumentos muestra una lista con las variables exportadas.

2.Convierte las variables (locales) en globales, para que sus valores sean accesibles por cada una de las shell que se genere.

echo $a gato
export a
echo $a gato

Ahora el valor de la variable a podrá ser leído desde otra shell cualquiera o subshell y también por programas que sean ejecutados en ellas.

La exportación del entorno de variables posiblemente lo necesitéis usar bastante más a menudo de lo que seguramente en un principio podríais estar pensando, pero como se acaba de ver, no es cosa del otro mundo. Para aquellos que hayáis programado en alguna ocasión, el mundo de las variables no os dirá nada de nuevo, para los que no, espero que no se os haya atragantado demasiado, a fin de cuentas las variables son algo bastante intuitivo.


INTERFASES

Interfaz

En informática, esta noción se utiliza para nombrar a la conexión física y funcional entre dos sistemas o dispositivos de cualquier tipo dando una comunicación entre distintos niveles.
Además, la palabra interfaz se utiliza en distintos contextos:
  1. Interfaz como instrumento: desde esta perspectiva la interfaz es una "prótesis" o "extensión" (McLuhan) de nuestro cuerpo. El ratón es un instrumento que extiende las funciones de nuestra mano y las lleva a la pantalla bajo forma de cursor. Así, por ejemplo, la pantalla de una computadora es una interfaz entre el usuario y el disco duro de la misma.
  2. Interfaz como superficie: algunos consideran que la interfaz nos trasmite instrucciones ("affordances") que nos informan sobre su uso. La superficie de un objeto (real o virtual) nos habla por medio de sus formas, texturas, colores, etc.
  3. Interfaz como espacio: desde esta perspectiva la interfaz es el lugar de la interacción, el espacio donde se desarrollan los intercambios y sus manualidades.

Interfaz de usuario

La interfaz de usuario es el medio con que el usuario puede comunicarse con una máquina, un equipo o una computadora, y comprende todos los puntos de contacto entre el usuario y el equipo. Normalmente suelen ser fáciles de entender y fáciles de accionar.

Las interfaces básicas de usuario son aquellas que incluyen elementos como menús, ventanas, teclado, ratón, los beeps y algunos otros sonidos que la computadora hace, y en general, todos aquellos canales por los cuales se permite la comunicación entre el ser humano y la computadora. La mejor interacción humano-máquina a través de una adecuada interfaz (Interfaz de Usuario), que le brinde tanto comodidad, como eficiencia.

Tipos de interfaces de usuario


Dentro de las Interfaces de Usuario se puede distinguir básicamente tres tipos:

A) Una interfaz de hardware, a nivel de los dispositivos utilizados para ingresar, procesar y entregar los datos: teclado, ratón y pantalla visualizadora.
B) Una interfaz de software, destinada a entregar información acerca de los procesos y herramientas de control, a través de lo que el usuario observa habitualmente en la pantalla.
C) Una interfaz de Software-Hardware, que establece un puente entre la máquina y las personas, permite a la máquina entender la instrucción y al hombre entender el código binario traducido a información legible.


ELEMENTOS DE UN SISTEMA

Todo sistema está constituido por partes que pueden o no ser sistemas (subsistemas). Los elementos o componentes de un sistema deben relacionarse entre sí, de lo contrario, no es un sistema (ver holismo y sinergía).

Por ejemplo, una
computadora, desde el punto de vista de sistema, está constituido por múltiples partes. Algunas de esas partes son subsistemas como discos rígidos, placa madre, unidad de CD, etc. y partes simples que no son sistemas como tornillos, remaches, etc.

Un sistema es más complejo, mientras más partes y más interconexiones existan entre esas partes. Como resultado de esas interacciones entre los elementos, surgen propiedades nuevas (propiedades emergentes) que no pueden explicarse analizando esos elementos de forma aislada. Por esta razón, mientras más elementos tenga un sistema, más propiedades "inesperadas" puede llegar a tener.


Los sistemas de información, según Peña (2006), tienen 5 elementos importantes, estos son:
  • Financieros
  • Administrativos
  • Humanos
  • Materiales
  • Tecnológicos
En la bibliografía consultada, sin embargo otro autor (s/a, 2008a), que contradice lo planteado por Peña (2006), se refiere a que un sistema de información consiste en 3 elementos: humano, tecnología y organización. En teoría de sistemas, un sistema de información es un sistema automatizado o manual que involucra personas, máquinas y/o métodos organizados de recolección, procesos, transmisión, clasificación y divulgación de datos.

Otro autor desconocido (s/a, 2008b) plantea que un sistema de información está compuesto por 6 elementos claramente identificables, tal y como se muestran en la siguiente figura:

ESTRUCTURA

Una estructura se constituye por un conjunto de aplicaciones que propician la movilidad orgánica de un conjunto de elementos. Las estructuras estáticas comportan aplicaciones ordenadas al sostén de una esencia. Las estructuras dinámicas se especializan en las aplicaciones que cada esencia realiza en el sistema global.  Cuando aplicamos sistema y estructura a una ideología, en un espectro social, el primer término define el conjunto de principios esenciales y predicacionales formales de sus elementos secundarios que coherentemente considerados justifican una teoría de modo de ser de la sociedad. Por estructura, en cambio, debemos asumir el conjunto de dependencia de las aplicaciones para efectivamente realizar en un marco espacio temporal una ideología determinada. 

En la crítica de toda ideología hay que identificar lo que son los formantes del sistema y lo que son aplicaciones estructurales. Solamente en el juicio de esta diferenciación se puede proceder a una correcta crítica de la ideología, pues las deficiencias del sistema no pueden ser corregidas con reformas estructurales, ni la deficiente aplicación estructural puede llegar a poder poner en duda la legitimidad esencial del sistema.

El gran problema se plantea en que cada una de estas dos esferas de toda ideología debe ser reducida desde el saber de una ciencia distinta y estudiadas como objeto propio por dos disciplinas independientes.

El sistema, como esencia, es objeto de la filosofía social, que estudia la realizaciones formales de las esencias que competen a las relaciones interpersonales y su coherencia con el orden global. La filosofía social reduce los distintos contenidos de cada ideología y analiza los contenidos y condiciones de verdad respecto a lo que constituye la esencia del ser humano y su entorno natural. Sólo y en cuanto exista, o no, oposición entre los contenidos esenciales ideológicos y la naturaleza propia del hombre y el cosmos se puede criticar el valor de una ideología para satisfacer al hombre y a la humanidad en su más radical exigencia de realización.

La estructura, como aplicación, es objeto de la sociología, que estudia la verificación de los actos sociales respecto a los objetivos que los ordenan, valora el grado de realización, analiza las causas de las variaciones y la idoneidad de los métodos aplicados.  Mientras que el sistema es pura especulación del hombre sobre el significado del mundo, la vida y el cosmos, la estructura juzga al hombre en su capacidad práctica para ejecutar un proyecto.

Toda ideología como sistema no tiene por objeto propio sino la verdad. De acuerdo a como el hombre no crea el mundo sino que es objeto del mismo, las ideologías no pueden cosntruirse de espaldas al orden total sin un grave riesgo de contradicción. La definición moral de toda ideología compete a las condiciones de verdad de su sistema. En cambio, la valoración ética de una ideología se seguirá de que las personas que asumen la responsabilidad de ejecutar su aplicación lo realicen con voluntad permanente de ejercer el bien.

ENTROPIA

En el ámbito de la teoría de la información la entropía, también llamada entropía de la información y entropía de Shannon (en honor a Claude E. Shannon), mide la incertidumbre de una fuente de información.




La entropía también se puede considerar como la cantidad de información promedio que contienen los símbolos usados. Los símbolos con menor probabilidad son los que aportan mayor información; por ejemplo, si se considera como sistema de símbolos a las palabras en un texto, palabras frecuentes como "que", "el", "a" aportan poca información, mientras que palabras menos frecuentes como "corren", "niño", "perro" aportan más información. Si de un texto dado borramos un "que", seguramente no afectará a la comprensión y se sobreentenderá, no siendo así si borramos la palabra "niño" del mismo texto original. Cuando todos los símbolos son igualmente probables (distribución de probabilidad plana), todos aportan información relevante y la entropía es máxima.


Cuando se plantea la pregunta: "¿Por qué ocurren los sucesos en la Naturaleza de una manera determinada y no de otra manera?", se busca una respuesta que indique cuál es el sentido de los sucesos. Por ejemplo, si se ponen en contacto dos trozos de metal con distinta temperatura, se anticipa que finalmente el trozo caliente se enfriará, y el trozo frío se calentará, finalizando en equilibrio térmico. El proceso inverso, el calentamiento del trozo caliente y el enfriamiento del trozo frío es muy improbable que se presente, a pesar de conservar la energía. El universo tiende a distribuir la energía uniformemente; es decir, a maximizar la entropía.