jueves, 7 de mayo de 2009

artes musicales

artes visuales

Computacion

ADSL
Definición de ADSL
(Asymmetrical Digital Subscriber Line - Línea Asimétrica de Suscripción Digital).

ADSL es una forma de DSL. Es una tecnología que permite transmitir información digital con elevado ancho de banda sobre líneas telefónicas, y ofrece distintos servicios, como el acceso a internet. Permite conectarse a internet sin interferir en las llamadas telefónicas de la línea que se utiliza.

Puede tomar más velocidad cuando el usuario recibe datos (bajada) que cuando se envía datos (subida).

El ADSL nos ofrece una conexión permanente y de gran velocidad a diferencia del servicio Dial up.

Pueden alcanzarse velocidades de 1,5 a 6 Mbits por segundos recibiendo y 16 a 576 Kbits enviando.


WIMAX
Definición de WiMax
El WiMax, cuyas siglas provienen de Worldwide Interoperability Microwave Access, o en español Interoperabilidad Mundial para el Acceso por Microondas, supone una evolución con respecto al Wi-Fi.

Permite conectarse a una red, como internet, de forma inalámbrica.














Definición de Wi-Fi

(Wireless Fidelity) Conjunto de estándares para redes inalámbricas basado en las especificaciones IEEE 802.11 (especialmente la 802.11b), creado para redes locales inalámbricas, pero que también se utiliza para acceso a internet.

El término fue acuñado por la Wi-Fi Alliance. Todo producto que ha sido testeado y aprobado por la Wi-Fi Alliance lleva el texto "Wi-Fi Certified", lo que garantiza su interoperatibilidad.

Según una investigación realizada por la cadena británica BBC, las ondas de radio emitidas por este sistema de transmisión son tres veces más potentes que las emanadas por los teléfonos celulares y todavía se desconocen los riesgos sobre la salud.
LAN
Red de área local (LAN)
Definición de Red de área local
Ver LAN.

Definición de LAN
(Local Area Network - Red de Área Local). Interconexión de computadoras y periféricos para formar una red dentro de una empresa u hogar, limitada generalmente a un edificio.

Con esta se pueden intercambiar datos y compartir recursos entre las computadoras que conforman la red.

Una red puede contener: servidores, estaciones de trabajo, gateways, bridges (puentes), tarjetas de red, un medio (cableado o inalámbrico), concentradores de cableado, etc.
Existen varias soluciones de redes LAN: ethernet, token ring y arcnet.


Memoria De Solo Lectura

Memoria de sólo lectura (normalmente conocida por su acrónimo, Read Only Memory) es una clase de medio de almacenamiento utilizado en las computadoras y otros dispositivos electrónicos. Los datos almacenados en la ROM no se puede modificar -al menos no de manera rápida o fácil- y se utiliza principalmente para contener el firmware (software que está estrechamente ligada a hardware específico, y es poco probable que requieren actualizaciones frecuentes).

En su sentido más estricto, se refiere sólo a ROM máscara ROM -en inglés MROM- (el más antiguo tipo de estado sólido ROM), que se fabrica con los datos almacenados en forma permanente, y por lo tanto, nunca puede ser modificada. Sin embargo, las más modernas, como EPROM y Flash EEPROM se puede borrar y volver a programar varias veces, aún siendo descritos como "memoria de sólo lectura (ROM), porque el proceso de reprogramación en general es poco frecuente, relativamente lento y, a menudo, no se permite la escritura en lugares aleatorios de la memoria.


celda de ROMLas computadoras domésticas a comienzos de los 80 venían con todo su sistema operativo en ROM. No había otra alternativa razonable ya que las unidades de disco eran generalmente opcionales. La actualización a una nueva versión significa usar un soldador o un grupo de interruptores DIP y reemplazar el viejo chip de ROM por uno nuevo. En el año 2000 los sistemas operativos en general ya no van en ROM. Todavía las computadoras pueden dejar algunos de sus programas en memoria ROM, pero incluso en este caso, es más frecuente que vaya en memoria flash. Los teléfonos móviles y los asistentes personales digitales (PDA) suelen tener programas en memoria ROM (o por lo menos en memoria flash).

Algunas de las consolas de videojuegos que usan programas basados en la memoria ROM son la Super Nintendo, la Nintendo 64, la Sega Mega Drive o la Game Boy. Estas memorias ROM, pegadas a cajas de plástico aptas para ser utilizadas e introducidas repetidas veces, son conocidas como cartuchos. Por extensión la palabra ROM puede referirse también a un archivo de datos que contenga una imagen del programa que se distribuye normalmente en memoria ROM, como una copia de un cartucho de videojuego.

Una razón de que todavía se utilice la memoria ROM para almacenar datos es la velocidad ya que los discos son más lentos. Aún más importante, no se puede leer un programa que es necesario para ejecutar un disco desde el propio disco. Por lo tanto, la BIOS, o el sistema de arranque oportuno de la computadora normalmente se encuentran en una memoria ROM.

La memoria RAM normalmente es más rápida para lectura que la mayoría de las memorias ROM, por lo tanto el contenido ROM se suele traspasar normalmente a la memoria RAM cuando se utiliza.


BIOS
Definición de BIOS
(Basic Input/Output System - Sistema básico de entrada/salida de datos). Programa que reside en la memoria EPROM (Ver Memoria BIOS no-volátil). Es un programa tipo firmware. La BIOS es una parte esencial del hardware que es totalmente configurable y es donde se controlan los procesos del flujo de información en el bus del ordenador, entre el sistema operativo y los demás periféricos. También incluye la configuración de aspectos importantísimos de la máquina.

Se accede a la BIOS ingresando la tecla Suprimir (DEL), ESC u otra tecla, indicada en la primer pantalla que aparece cuando se enciende una PC.




Sistema operativo
Definición de Sistema operativo
(Operating System). Sistema tipo software que controla la computadora y administra los servicios y sus funciones como así también la ejecución de otros programas compatibles con éste.

Ejemplos de familias de sistemas operativos: Windows, Unix, Linux, DOS, Mac OS, etc.

Un sistema operativo permite interactuar con el hardware de computadoras, teléfonos celulares, PDAs, etc. y ejecutar programas compatibles en éstos.

Permite controlar las asignaciones de memoria, ordenar las solicitudes al sistema, controlar los dispositivos de entrada y salida, facilitar la conexión a redes y el manejo de archivos.





CPU
Definición de CPU
(Central Processing Unit - Unidad central de procesamiento). Es el cerebro de la computadora, ubicado específicamente en el microprocesador, posee dos componentes, la Unidad de Control y la Unidad aritmético-lógica. La CPU trabaja activamente con la memoria principal, aunque físicamente está separada del microprocesador.

El rendimiento, calidad y costo de una computadora está altamente relacionado a su CPU.










Software

El software es un ingrediente indispensable para el funcionamiento del computador. Está formado por una serie de instrucciones y datos, que permiten aprovechar todos los recursos que el computador tiene, de manera que pueda resolver gran cantidad de problemas. Un computador en si, es sólo un conglomerado de componentes electrónicos; el software le da vida al computador, haciendo que sus componentes funcionen de forma ordenada.

El software es un conjunto de instrucciones detalladas que controlan la operación de un sistema computacional.

Funciones del software:

Administrar los recursos de cómputo
Proporcionar las herramientas para optimizar estos recursos.
Actuar como intermediario entre el usuario y la información almacenada.
Programas de Software

Programa: conjunto de argumentos o instrucciones para la computadora, almacenado en la memoria primaria de la computadora junto con los datos requeridos para ser ejecutado, en otras palabras hacer que las instrucciones sean realizadas por la computadora.

Tipos de Software

Software del sistema: Es un conjunto de programas que administran los recursos de la computadora. Ejemplos: Unidad central de proceso, dispositivos de comunicaciones y dispositivos periféricos, el software del sistema administra y controla al acceso del hardware.
Software de aplicaciones: Programas que son escritos para o por los usuarios para realizar una tarea especifica en la computadora. Ejemplo: software para procesar un texto, para generar una hoja de calculo, el software de aplicación debe estar sobre el software del sistema para poder operar.
Software de usuario final: Es el software que permiten el desarrollo de algunas aplicaciones directamente por los usuarios finales, el software del usuario final con frecuencia tiene que trabajar a través del software de aplicación y finalmente a través del software del sistema.
Cada software debe ser diseñado para un tipo de máquina específica para asegurar su compatibilidad.

Lenguajes de consulta: (SQL) son lenguajes de alto nivel para recuperar datos almacenados en bases de datos o en archivos, permiten solicitudes de información que no estén predefinidas.

Generadores de reportes: Son programas para crear informes sobre diseño en una amplia variedad de formatos que no son rutinariamente producidos por un sistema de información. Extraen datos de los archivos o de las bases de datos y crean reportes de acuerdo con muchos formatos, proporcionan más control, pueden manejar datos de cálculos y lógica compleja antes de darles la salida.

Lenguajes de gráficas: Recuperan datos de archivos o de bases de datos y los representan en un formato gráfico.





Hardware
La palabra “Hardware” inmediatamente está haciendo referencia a los componentes que forman parte de una computadora. Tal como el software comprende las aplicaciones (sistemas operativos, programas antivirus, etc), el Hardware comprende el mouse, la placa madre, el monitor, y demás unidades vinculadas “físicamente” al equipo.

Existen 2 tipos de categorías importantes en el campo del “Hardware”. Por un lado, el Básico, que hace referencia a las herramientas indispensables para correr una PC, y por otro lado, está el “Hardware Complementario”, que distingue a aquellos extras que uno puede sumar a la máquina, para jugar e ir más lejos de sus posibilidades originales.

Es importante también, destacar las categorías de Periféricos de Entrada, Salida, o ambas (E/S). El Hardware de Salida, como puede serlo un monitor, describe a aquellos que muestran resultados, mientras que el Hardware de Entrada está regido por aquellos dispositivos que hacen posible la recepción de datos, como por ejemplo el teclado. Por su parte, los que son capaces de soportar ambas visiones (Entrada y Salida) dan lugar a unidades, como por ejemplo un Hard Drive -Disco Duro-, que envían y reciben información, entre la PC y el usuario.





Gigabyte
Un Gigabyte es una unidad de medida aproximadamente igual a 1 billón de bytes. El gigabyte se utiliza para cuantificar memoria o capacidad de disco. Un gigabyte es igual a 1,000MB (realmente 1.024 megabytes).

El gigabyte se abrevia a menudo como G o GB.





Terabyte
un Terabyte es una unidad de medida de memoria (2 elevado a 40) aproximadamente igual a un trillón de bytes (realmente 1.099.511.627.776 bytes). Un Terabyte es igual a 1.000 gigabytes.





Petabyte
Un petabyte es una unidad de medida de memoria (2 elevado a 50) que es igual a 1.024 Terabytes (en realidad 1.125.899.906.842.624 bytes). Se utiliza sobre todo en soluciones distribuidas de almacenaje y dentro de soluciones de empresa importantes.





Bit
un bit es una señal electrónica que puede estar encendida (1) o apagada (0). Es la unidad más pequeña de información que utiliza un ordenador. Son necesarios 8 bits para crear un byte.

La mayoría de las veces los bits se utilizan para describir velocidades de transmisión, mientras que los bytes se utilizan para describir capacidad de almacenamiento o memoria.

El funcionamiento es el siguiente: El circuito electrónico en los ordenadores detecta la diferencia entre dos estados (corriente alta y corriente baja) y representa esos dos estados como uno de dos números, 1 o 0. Estos básicos, alta/baja, ambos/o, si/no unidades de información se llaman bits.

El término bit deriva de la frase dígito binario (en inglés binary digit).





Byte
Un byte es la unidad fundamental de datos en los ordenadores personales, un byte son ocho bits contiguos. El byte es también la unidad de medida básica para memoria, almacenando el equivalente a un carácter.

La arquitectura de ordenadores se basa sobre todo en números binarios, así que los bytes se cuentan en potencias de dos (que es por lo que alguna gente prefiere llamar los grupos de ocho bits octetos).

Los términos Kilo (en Kilobyte, abreviado como K) y mega (en Megabyte, abreviado como M) se utilizan para contar bytes (aunque son engañosos, puesto que derivan de una base decimal de 10 números).





Megabyte
Un Megabyte, cuando se utiliza para describir el almacenamiento de datos, son 1.048.576 (2 a la vigésima potencia) bytes. El megabyte se abrevia con frecuencia como M o MB.
Un Megabyte, cuando se utiliza para describir tasas de transferencia de datos, como en MBps, se refiere a un millón de Bytes.



Memoria De Accseso aleatorio
RAM o Random Access Memory (memoria de acceso aleatorio), es un tipo de memoria que utilizan las computadoras y otros dispositivos (Ver Cómo instalar módulos de memoria RAM en la computadora). Por lo general es usada para el almacenamiento temporal de información. Este tipo de memoria es volátil, por lo tanto su contenido se pierde al faltar la energía eléctrica.

Su nombre se debe a que puede accederse a cualquier sector (o celda) de la memoria directamente con una dirección, a diferencia de las memorias de acceso secuencial. A nivel hardware estas memorias poseen un cableado interno que permite acceder a cada byte, pues cada uno de ellos tiene un camino prefijado para accederlo





Driver
Un driver o controlador posibilita que el sistema operativo de una computadora pueda entenderse con un equipamiento periférico, como es el caso de una impresora, una placa de video, un mouse, un módem, etc.

Para poder interactuar con el periférico, el sistema operativo debe realizar una abstracción del hardware brindando una forma de manipularlo mediante una interfase, esto es, algún mecanismo que permita controlar su funcionamiento, un conjunto de instrucciones que indican de qué manera debería comunicarse con tal o cual dispositivo.

Un mismo periférico puede poseer varios controladores, según el caso, sea por diferentes números de versión, funcionalidad, o porque cada uno sirve para lograr su comunicación dentro de diferentes sistemas operativos.

Dentro de este esquema, es posible que programadores externos a la empresa que ha fabricado el dispositivo decidan desarrollar un controlador para el mismo porque desean obtener otras funcionalidades, o porque su sistema operativo no posee controladores oficiales para tal equipamiento.

El caso de los sistemas operativos libres es muy ejemplar, siendo que en la mayoría de las oportunidades los fabricantes no suelen desarrollar controladores para GNU/Linux o BSD, se crean drivers libres específicos, lo cual es complicado si el fabricante no coopera en absoluto. Estos sistemas operativos libres poseen en general una enorme cantidad de drivers instalados en los CDs o DVDs, es así que al momento de iniciar se autodetecta el hardware y se cargan los drivers para tal hardware, logrando un mínimo tiempo de configuración, y una enorme comodidad para el usuario final. En algunos casos, al contrario, la instalación de un dispositivo que no posee un driver libre puede ser tortuosa.

Es muy normal que un sistema operativo se congele por culpa de fallos en los programas controladores de dispositivos.





controlador
Definición de Controlador
(Driver). Archivo o archivos que permiten que un sistema operativo entienda y maneje diversos periféricos y hardwares que se conectan o forman parte de la computadora. Sistemas operativos como Windows suelen tener una gran base de controladores para poder ser compatibles con diversos hardwares, pero muchas veces es necesario instalar otros controladores para poder hacerlos funcionar correctamente.





Photoshop
Definición de Photoshop
Photoshop es una aplicación para la creación, edición y retoque de imágenes. Es desarrollado por la compañía Adobe Systems. Se lanzó originalmente para computadoras Apple, pero luego saltó a la plataforma Windows.

Este programa se ha hecho muy popular, incluso fuera del ámbito informático, llegándose incluso a usar la palabra "photoshop" para hacer referencia a una foto que ha sido retocada digitalmente. De hecho se ha llegado a amplear la palabra "photoshop" como verbo: photoshopear (photoshopping en inglés).





Rss
RSS es una familia de formatos de fuentes web codificados en XML. Se utiliza para suministrar a suscriptores de información actualizada frecuentemente. El formato permite distribuir contenido sin necesidad de un navegador, utilizando un software diseñado para leer estos contenidos RSS (agregador). A pesar de eso, es posible utilizar el mismo navegador para ver los contenidos RSS. Las últimas versiones de los principales navegadores permiten leer los RSS sin necesidad de software adicional. RSS es parte de la familia de los formatos XML desarrollado específicamente para todo tipo de sitios que se actualicen con frecuencia y por medio del cual se puede compartir la información y usarla en otros sitios web o programas. A esto se le conoce como redifusión web o sindicación web (una traducción incorrecta, pero de uso muy común).







Blog
Un blog, o en español también una bitácora, es un sitio web periódicamente actualizado que recopila cronológicamente textos o artículos de uno o varios autores, apareciendo primero el más reciente, donde el autor conserva siempre la libertad de dejar publicado lo que crea pertinente. El nombre bitácora está basado en los cuadernos de bitácora. Cuadernos de viaje que se utilizaban en los barcos para relatar el desarrollo del viaje y que se guardaban en la bitácora. Aunque el nombre se ha popularizado en los últimos años a raíz de su utilización en diferentes ámbitos, el cuaderno de trabajo o bitácora ha sido utilizado desde siempre.
Este término inglés blog o weblog proviene de las palabras web y log ('log' en inglés = diario). El término bitácora, en referencia a los antiguos cuadernos de bitácora de los barcos, se utiliza preferentemente cuando el autor escribe sobre su vida propia como si fuese un diario, pero publicado en Internet (en línea).





Wiki
WIKIS Y CONSTRUCCIÓN SOCIAL DEL CONOCIMIENTO.
Las wikis comparten numerosas características con los blogs, pero representan un paso más en el acelerado e imparable proceso de socialización de la red. La palabra “wiki-wiki” significa en hawaiano “rápido”; expresión repetida entre los remeros de las canoas que conocen como nadie el valor del esfuerzo colaborativo en la consecución de una meta. El término se utiliza entre los internautas para designar una amplia colección de páginas web que pueden ser visitadas y editadas libremente por cualquier individuo. El sitio crece gracias al perpetuo trabajo de una comunidad de usuarios interesada en los mismos temas.
En 1995 Ward Cunningham creo el primer wiki[20], una enciclopedia sobre programas de computación que, con el tiempo, se convertiría en un sitio -casi de culto- sobre el extreme programming[21]. Sin embargo, la mayor e indiscutible fuente de conocimiento en la red es la Wikipedia: Un compendio del conocimiento humano en permanente proceso de construcción y en el que participan a diario cientos de miles de usuarios en más de un centenar de idiomas.[22] Se ha convertido, por derecho propio, en la mejor enciclopedia open-source de Internet.
Actualmente existe una enorme variedad de proyectos wiki gestionados por comunidades de usuarios que comparten algún interés común y se han acuñado términos como: “wikidictionary”[23], “wikibook[24]”, “wikitravel[25]”.






Tecnologia
Definición de Tecnología
La tecnología es un concepto amplio que abarca un conjunto de técnicas, conocimientos y procesos, que sirven para el diseño y construcción de objetos para satisfacer necesidades humanas.

En la sociedad, la tecnología es consecuencia de la ciencia y la ingeniería, aunque muchos avances tencológicos sean posteriores a estos dos conceptos.

La palabra tecnología proviene del griego tekne (técnica, oficio) y logos (ciencia, conocimiento).





Elearning
Generalidades sobre e-learning

El e-learning, es un concepto de educación a distancia en el que se integra el uso de las tecnologías de la información y otros elementos pedagógicos (didácticos) para la formación, capacitación y enseñanza de los usuarios o estudiantes en línea, es decir, se puede entender como una modalidad de aprendizaje dentro de la Educación a distancia y se define como e-learning. Utiliza herramientas y medios diversos como Internet, intranets, CD-ROM, producciones multimedia (Textos, imagenes, audio, video, etc.), entre otros... Literalmente e-learning es aprendizaje con medios electrónicos: enseñanza dirigida por la tecnología.
E-learning es principalmente un medio electrónico para el aprendizaje a distancia o virtual, donde puedes interactuar con tus profesores por medio de internet. Además tu mismo eres el que maneja los horarios, es un medio completamente autónomo. Constituye una propuesta de formación que contempla su implementación predominantemente mediante internet, haciendo uso de los servicios y herramientas que esta tecnología provee.
Dentro de la modalidad a distancia, el e-learning es una de las opciones que actualmente se utiliza con mayor frecuencia para atender la necesidad de educación continua o permanente. La generación de programas de perfeccionamiento profesional no reglados está en crecimiento debido a que existe un reconocimiento de que los trabajadores se capaciten y se adapten a los nuevos requerimientos productivos. El e-learning, dadas sus características y el soporte tecnológico que lo respalda, se constituye en una alternativa para aquellos que combinan trabajo y actualización, ya que no es necesario acudir a una aula permanentemente.
Si la educación a distancia es, desde sus orígenes, una opción para atender la formación de personas adultas, el e-learning tiene la ventaja de que los usuarios eligen sus propios horarios, y puede entrar a la plataforma desde cualquier lugar donde puedan acceder a una computadora y tengan conexión a internet. La educación virtual da la oportunidad de que el estudiante elija sus horarios de estudio convirtiéndose así en una muy buena opción para aquellas personas autónomas que trabajen y quieran estudiar en sus momentos libres, por otra parte es importante mencionar que el e-learning es una excelente herramienta que puede ayudar a los usuarios no solo a aprender conceptos nuevos sino tambien a afianzar concocimientos, aumentado asi la autonomía y la motivación de los estudiantes por diferentes temas.
Las ventajas que ofrece la formación online serían las siguientes:
1. Inmersión práctica en un entorno Web 2.0
2. Eliminación de barreras espaciales y temporales (desde su propia casa, en el trabajo, en un viaje a través de dispositivos móviles, etc.). Supone una gran ventaja para empresas distribuidas geográficamente
3. Prácticas en entornos de simulación virtual, difíciles de conseguir en formación presencial, sin una gran inversión.
4. Gestión real del conocimiento: intercambio de ideas, opiniones, prácticas, experiencias. Enriquecimiento colectivo del proceso de aprendizaje sin límites geográficos.
5. Actualización constante de los contenidos (deducción lógica del punto anterior)
6. Reducción de costes (en la mayoría de los casos, a nivel metodológico y, siempre, en el aspecto logístico)
7. Permite una mayor conciliación de la vida familiar y laboral
Según un artículo llamado "Estado actual de los sistemas e-learning", de de la Universidad de Salamanca,
el e-learning es un concepto muy complejo. Por un lado habla de él como una herramienta formativa desde un punto de vista pedagógico y tecnológico. Esto es, pedagógicamente se trata de hacer una pedagogía de transmisión del saber más allá de la propia inserción de contenidos en la red (actual sociedad de la información que creo debe convertirse en sociedad del conocimiento).
Tecnológicamente, las NTIC son el soporte de este nuevo concepto de educación. Por otro lado, habla de él como un uso. Un uso formativo “una fuente de servicios para alcanzar su cometido formativo”. Además, etimológicamente, e-learning es aprendizaje electrónico: todo proceso formativo que uso cualquier tipo de NTIC. Desde este punto de vista, el profesorado lleva haciendo uso del e-learning desde la inclusión de los aparatos audio, visuales y audiovisuales. Así se pronuncia la American Society of Training and Development que lo define como “término que cubre un amplio grupo de aplicaciones y procesos, tales como aprendizaje basado en web, aprendizaje basado en ordenadores, aulas virtuales y colaboración digital. Incluye entrega de contenidos vía Internet, intranet/extranet, audio y vídeo grabaciones, transmisiones satelitales, TV interactiva, CD-ROM y más”.
No obstante, otros autores lo definen como el uso de software y hardware en el entorno de Internet, como Rosenberg (2001): el uso de tecnologías Internet para la entrega de un amplio rango de soluciones que mejoran el conocimiento y el rendimiento. Está basado en tres criterios fundamentales:
El e-learning trabaja en red, lo que lo hace capaz de ser instantáneamente actualizado, almacenado, recuperado, distribuido, y permitiendo compartir instrucción o información.
Es entregado al usuario final a través del uso de ordenadores utilizando tecnología estándar de Internet.
Se enfoca en la visión más amplia del aprendizaje que van más allá de los paradigmas tradicionales de capacitación.
Desde la perspectiva que ofrece la experiencia en el desarrollo y explotación de plataformas e-learning, García Peñalvo ofrece su propia definición de e-learning como la “capacitación no presencial que, a través de plataformas tecnológicas, posibilita y flexibiliza el acceso y el tiempo en el proceso de enseñanza-aprendizaje, adecuándolos a las habilidades, necesidades y disponibilidades de cada discente, además de garantizar ambientes de aprendizaje colaborativos mediante el uso de herramientas de comunicación síncrona y asíncrona, potenciando en suma el proceso de gestión basado en competencias”.






TCP
TCP/IP
(Transmision Control Protocol/Internet Protocol). Se trata de un estándar de comunicaciones muy extendido y de uso muy frecuente para software de red basado en Unix con protocolos Token-Ring y Ethernet, entre otros. Es compatible con productos de muchas marcas: IBM, DEC, Sun, AT&T, Data General, etc. TCP/IP es conforme a los niveles 3 y 4 de los modelos OSI. Este conjunto de protocolos fue desarrollado originalmente para el Departamento de Defensa de Estados Unidos.





IP
irección IP
(Dirección de protocolo de Internet). La forma estándar de identifiar un equipo que está conectado a Internet, de forma similar a como un número de teléfono identifica un número de telefono en una red telefónica. La dirección IP consta de quatro números separados por puntos y cada numero es menor de 256; por ejemplo 192.200.44.69. El adminsitrador del servidor Web o su proveedor de servicios de Internet asignará una dirección IP a su equipo.



Definición y significado de Dirección IP

Articulos Relacionados
-Dirección de ProtocoloDirección de Protocolo Número asignado a una computadora que se usa como dirección destino en los paquetes enviados a esa computadora. Cada dirección IP es de 32 bits de longitud;...

-Dirección de Punto TerminalDirección de Punto Terminal Característica de cualquier protocolo o función que pueda usarse como dirección destino. Por ejemplo, una dirección IP es un tipo de dirección de punto terminal. ...

-Dirección FuenteDirección Fuente Dirección contenida en un paquete que indica la computadora que envió el paquete. En un cuadro de hardware, la dirección fuente debe ser una dirección de hardware. En...

-Dirección de HardwareDirección de Hardware Dirección asignada a la computadora que se conecta a una red. Los cuadros enviados de una computadora a otra deben contener la dirección de hardware del receptor....

-Dirección de MemoriaDirección de Memoria Localización de los datos en la memoria del ordenador. Tecnicamente es más correcto llamarle dirección o intervalo de entrada/salida (E/S). Es la posición dentro de la memoria






Entorno de red
Definición de Entorno de red
1. En general, un entorno de red es el contexto general en el que se encuadran una serie de computadoras conectados en red. Todo esto junto con su configuración y propiedades de diseño del mismo.

2. En sistemas operativos Microsoft Windows, el Entorno de Red es una herramienta para el acceso a la red desde el explorador disponible en Windows 98, Windows 2000 y Windows ME.

En Windows XP y superior se accede a la red a través de Mis sitios de red.







memoria ROM
La memoria de sólo lectura, o memoria ROM (por Read Only Memory), es una de las dos memorias que posee la computadora, que tiene como particularidad que no puede ser modificada; es inalterable. Por eso es que se la caracteriza como una memoria no volátil, ya que tampoco se altera por cortes de corriente.

Es decir que sus programas se pueden leer y por lo tanto, ejecutar, pero no escribir sobre ellos o cambiarlos. Su contenido permanece intacto durante todo el tiempo que exista.

En este sentido, se diferencia de la memoria RAM, ya que esta es aleatoria: es tanto de lectura como de escritura por lo que su contenido puede ser modificado.

En cuanto a la memoria ROM, los datos que contiene suelen ser cargados de fábrica en el chip y al no poder sufrir ninguna modificación, no corre el riesgo de perder su información una vez que se apaga la computadora. Por eso mismo es que se la utilizan para almacenar los programas con los que se enciende el equipo, cargar el sistema operativo y para ejecutar el diagnóstico de dispositivos de entrada/salida (lo que se conoce como el Bios del Sistema).

Generalmente, son de poca capacidad (sólo unos miles de bytes) y suelen estar integradas con la computadora y en algunos periféricos que se le instalan.






Ram
La memoria RAM de una computadora personal es rápida, cara, de poca capacidad y pierde todos los datos cuando deja de recibir electricidad, al contrario de los discos duros, que son mucho más lentos, más baratos, de gran capacidad de almacenamiento y conservan los datos entre cada apagado y encendido de la máquina.

RAM proviene del acrónimo en idioma inglés "Random Access Memory", es decir, Memoria de Acceso Aleatorio. El término no es quizá tan descriptivo de sus cualidades únicas, siendo que las memorias Flash, ROM y ROM regrabables son de acceso aleatorio también. No obstante, esta denominación RAM encuentra sentido en que cuando surgió el tipo de memoria de la cual hablamos existían memorias como las de Registros de desplazamiento, con lo cual servía para realizar la distinción.

Los diferentes accesos a esta memoria, entonces, son independientes entre sí. Para entender mejor este concepto, nos serviremos nuevamente de la comparación con un disco duro, el cual al leer información desde dos sectores distantes debe mover la cabeza lectora hasta la pista en la cual se encuentra tal o cual dato, en cambio en la memoria RAM este tiempo no se pierde porque los datos son almacenados en celdas y accedidos de manera no secuencial.

Un cableado interno une cada celda, la cual contiene un byte, formando un camino de entrada y salida. Básicamente podemos dividir las memorias RAM en dinámicas y estáticas; la diferencia radica en que en las primeras la lectura es destructiva, por lo cual se necesita restaurar la información mediante un refresco, y en las segundas el contenido se mantiene sin alteraciones durante el proceso de lectura.

Quienes piensen en adquirir más memoria RAM para su PC deberán comprar módulos, los cuales se conectan a la placa madre y se dividen en diferentes clases según la cantidad de contactos: SIMM (30 o 72 contactos), DIMM (168 contactos) o RIMM (184 contactos).



Gadget
Un gadget es un dispositivo que tiene un propósito y una función específica, generalmente de pequeñas proporciones, práctico y a la vez novedoso. Los gadgets suelen tener un diseño más ingenioso que el de la tecnología corriente.

Contenido [ocultar]
1 Etimología y uso
2 Mini aplicaciones Gadgets
3 Algunos ejemplos de gadgets
4 Véase también
5 Referencias



Etimología y uso [editar]Se suele pensar que la palabra fue inventada alrededor de los década de 1980 en Estados Unidos, pero en realidad su acuñación se remonta a los años 1884-5 por la compañía Gaget, Gauthier & Cia, encargada de la fundición de la Estatua de la Libertad, que al acercarse la fecha de la inauguración quería algo de publicidad y comenzó a vender réplicas en pequeña escala de la famosa dama.[cita requerida]

La primera bomba atómica fue llamada gadget por los científicos del Proyecto Manhattan, al ser experimentada en la Prueba Trinity.

En ficción, son populares en las peliculas de espías, especialmente en las series de James Bond o en las series de Batman y Iron Man, dependientes siempre de sus equipos. Otro personaje célebre de los dibujos animados dotado de un surtido de gadgets, era el Inspector Gadget.

Aunque en español se emplea esta palabra en los círculos tecnológicos por influencia del inglés, no viene recogida en la RAE (Real Academia Española) y ha suscitado una campaña por el uso de sinónimos con mayor tradición en el idioma, tales como "chisme",[1] a pesar de la connotación negativa que pueda tener. Otro sinónimo frecuentemente mencionado es el de artilugio.


Mini aplicaciones Gadgets [editar]El término gadget (o widget), también se ha dado a una nueva categoría de mini aplicaciones, diseñadas para proveer de información o mejorar una aplicación o servicios de un ordenador o computadora, o bien cualquier tipo de interacción a través de Internet, por ejemplo una extensión de alguna aplicación de negocios, que nos provea información en tiempo real del estatus del negocio u organización.

Un ejemplo de un gadget en una computadora serían los gadgets del Dashboard del sistema de Apple el Mac OS X Leopard o los de la barra lateral de Windows, que viene incluida en el nuevo sistema operativo de Microsoft: Windows Vista Algunos ejemplos de gadgets [editar]Muchos aparatos tecnológicos de tamaño reducido pueden ser considerados gadgets, como es el caso de los móviles, mandos a distancia, iPods, PDA, calculadoras, relojes, etc.
También Google tiene su sidebar con muchos gadgets (virtuales) que se pueden usar con el sistema operativo Windows XP, Windows Vista, Mac y GNU Linux
La lapicera (portaminas), la llave inglesa, el peine, el tenedor, entre muchos otros, también caben dentro de la definición menos tecnológica.
También se utiliza para designar todos los accesorios utilizados por corredores populares de carreras y maratones que no son calificados como imprescindibles.
Web 2.0
La Web 2.0 es la representación de la evolución de las aplicaciones tradicionales hacia aplicaciones web enfocadas al usuario final. El Web 2.0 es una actitud y no precisamente una tecnología.
La Web 2.0 es la transición que se ha dado de aplicaciones tradicionales hacia aplicaciones que funcionan a través del web enfocadas al usuario final. Se trata de aplicaciones que generen colaboración y de servicios que reemplacen las aplicaciones de escritorio.
Es una etapa que ha definido nuevos proyectos en Internet y está preocupándose por brindar mejores soluciones para el usuario final. Muchos aseguran que hemos reinventado lo que era el Internet, otros hablan de burbujas e inversiones, pero la realidad es que la evolución natural del medio realmente ha propuesto cosas más interesantes como lo analizamos diariamente en las notas de Actualidad.
Y es que cuando el web inició, nos encontrábamos en un entorno estático, con páginas en HTML que sufrían pocas actualizaciones y no tenían interacción con el usuario.
Pero para entender de donde viene el término de Web 2.0 tenemos que remontarnos al momento en que Dale Dougherty de O’Reilly Media utilizó este término en una conferencia en la que compartió una lluvia de ideas junto a Craig Cline de MediaLive. En dicho evento se hablaba del renacimiento y evolución de la web.
Constantemente estaban surgiendo nuevas aplicaciones y sitios con sorprendentes funcionalidades. Y así se dio la pauta para la Web 2.0 conference que arranca en el 2004 y hoy en día se realiza anualmente en San Francisco, con eventos adicionales utilizando la marca en otros países.
En la charla inicial del Web Conference se habló de los principios que tenían las aplicaciones Web 2.0:
La web es la plataforma
La información es lo que mueve al Internet
Efectos de la red movidos por una arquitectura de participación.
La innovación surge de características distribuidas por desarrolladores independientes.
El fin del círculo de adopción de software pues tenemos servicios en beta perpetuo
La Web 2.0 con ejemplos
Entender la evolución que ha llegado con la Web 2.0 puede realizarse con ejemplos, con proyectos. Podemos comparar servicios web que marcan claramente la evolución hacia el Web 2.0 con una nueva forma de hacer las cosas:
Web 1.0 > Web 2.0
Doubleclick –> Google AdSense (Servicios Publicidad)
Ofoto –> Flickr (Comunidades fotográficas)
Akamai –> BitTorrent (Distribución de contenidos)
mp3.com –> Napster (Descargas de música)
Britannica Online –> Wikipedia (Enciclopedias)
Sitios personales –> Blogs (Páginas personales)
Especulación con dominios –> Optimización en motores de búsqueda SEO
Páginas vistas –> Costo por click
CMSs –> Wikis (Administradores de contenidos)
Categorías/Directorios –> Tags
¿Qué tecnologías apoyan a la Web 2.0?
El Web 2.0 no significa precisamente que existe una receta para que todas nuestras aplicaciones web entren en este esquema. Sin embargo, existen varias tecnologías que están utilizándose actualmente y que deberíamos de examinar con más cuidado en busca de seguir evolucionando junto al web.
Tecnologías que dan vida a un proyecto Web 2.0:
Transformar software de escritorio hacia la plataforma del web.
Respeto a los estándares como el XHTML.
Separación de contenido del diseño con uso de hojas de estilo.
Sindicación de contenidos.
Ajax (javascript ascincrónico y xml).
Uso de Flash, Flex o Lazlo.
Uso de Ruby on Rails para programar páginas dinámicas.
Utilización de redes sociales al manejar usuarios y comunidades.
Dar control total a los usuarios en el manejo de su información.
Proveer APis o XML para que las aplicaciones puedan ser manipuladas por otros.
Facilitar el posicionamiento con URL sencillos.
¿En qué nos sirve la Web 2.0?
El uso de el término de Web 2.0 está de moda, dándole mucho peso a una tendencia que ha estado presente desde hace algún tiempo. En Internet las especulaciones han sido causantes de grandes burbujas tecnológicas y han hecho fracasar a muchos proyectos.
Además, nuestros proyectos tienen que renovarse y evolucionar. El Web 2.0 no es precisamente una tecnología, sino es la actitud con la que debemos trabajar para desarrollar en Internet. Tal vez allí está la reflexión más importante del Web 2.0.Yo ya estoy trabajando en renovar y mejorar algunos proyectos, no por que busque etiquetarlos con nuevas versiones, sino por que creo firmemente que la única constante debe ser el cambio, y en Internet, el cambio debe de estar presente más frecuentemente.
Otros artículos interesantes sobre Web 2.0:
Web 2.0 ¿Reconfiguración social o tecnológica?
Web 3.0, añade significado
What is Web 2.0 en O’reilly (inglés)
Web 2.0 en la Wikipedia
Plataforma Web 2.0 : ¿Que Es?
Web 2.0 for designers
Are you ready for Web 2.0? en Wired.
El evento Web 2.0 Expo
Proyectos web 2.0 aparecidos en España en el 2007
Como crear un logo web 2.0
Discusión: ¿Relación entre Web 2.0 e Internet 2?

ed. fisica

tecnologia

comprension de la naturaleza

comprension de la sociedad

matematicas

ingles

lenguaje