Computadora
Una
computadora o
computador (del inglés
computer y este del
latín computare -calcular), también denominada
ordenador (del
francés ordinateur, y este del
latín ordinator), es una
máquina electrónica que recibe y procesa
datos para convertirlos en información útil. Una computadora es una colección de
circuitos integrados
y otros componentes relacionados que puede ejecutar con exactitud,
rapidez y de acuerdo a lo indicado por un usuario o automáticamente por
otro programa, una gran variedad de
secuencias o
rutinas de
instrucciones que son
ordenadas,
organizadas y
sistematizadas
en función a una amplia gama de aplicaciones prácticas y precisamente
determinadas, proceso al cual se le ha denominado con el nombre de
programación y al que lo realiza se le llama
programador. La computadora, además de la rutina o
programa informático, necesita de datos específicos (a estos datos, en conjunto, se les conoce como "Input" en inglés o
de entrada)
que deben ser suministrados, y que son requeridos al momento de la
ejecución, para proporcionar el producto final del procesamiento de
datos, que recibe el nombre de "output" o
de salida. La
información puede ser entonces utilizada, reinterpretada, copiada,
transferida, o retransmitida a otra(s) persona(s), computadora(s) o
componente(s) electrónico(s) local o remotamente usando diferentes
sistemas de
telecomunicación, que puede ser grabada, salvada o almacenada en algún tipo de dispositivo o
unidad de almacenamiento.
La característica principal que la distingue de otros dispositivos similares, como la
calculadora
no programable, es que es una máquina de propósito general, es decir,
puede realizar tareas muy diversas, de acuerdo a las posibilidades que
brinde los lenguajes de programación y el hardware.
Arquitectura
A pesar de que las tecnologías empleadas en las computadoras
digitales han cambiado mucho desde que aparecieron los primeros modelos
en los
años 40, la mayoría todavía utiliza la
Arquitectura de von Neumann, publicada a principios de los
años 1940 por
John von Neumann, que otros autores atribuyen a
John Presper Eckert y
John William Mauchly.
La arquitectura de Von Neumann describe una computadora con 4 secciones principales: la
unidad aritmético lógica (ALU por sus siglas del inglés:
Arithmetic
Logic
Unit), la
unidad de control, la
memoria central, y los
dispositivos de entrada y salida (E/S). Estas partes están interconectadas por canales de conductores denominados
buses:
- La memoria es una secuencia de celdas de almacenamiento numeradas, donde cada una es un bit
o unidad de información. La instrucción es la información necesaria
para realizar lo que se desea con el computador. Las «celdas» contienen
datos que se necesitan para llevar a cabo las instrucciones, con el
computador. El número de celdas varían mucho de computador a computador,
y las tecnologías empleadas para la memoria han cambiado bastante; van
desde los relés electromecánicos, tubos llenos de mercurio en los que se
formaban los pulsos acústicos, matrices de imanes permanentes,
transistores individuales a circuitos integrados con millones de celdas
en un solo chip. En general, la memoria puede ser reescrita varios
millones de veces (memoria RAM); se parece más a una pizarra que a una lápida (memoria ROM) que sólo puede ser escrita una vez.
- El procesador (también llamado Unidad central de procesamiento o CPU) consta de manera básica de los siguientes elementos:
Un típico símbolo esquemático para una ALU: A y B son operandos; R es la salida; F es la entrada de la
unidad de control; D es un estado de la salida.
-
- La unidad aritmético lógica o ALU es el dispositivo diseñado y construido para llevar a cabo las operaciones elementales como las operaciones aritméticas (suma, resta, ...), operaciones lógicas (Y, O, NO), y operaciones de comparación o relacionales. En esta unidad es en donde se hace todo el trabajo computacional.
- La unidad de control
sigue la dirección de las posiciones en memoria que contienen la
instrucción que el computador va a realizar en ese momento; recupera la
información poniéndola en la ALU para la operación que debe desarrollar.
Transfiere luego el resultado a ubicaciones apropiadas en la memoria.
Una vez que ocurre lo anterior, la unidad de control va a la siguiente
instrucción (normalmente situada en la siguiente posición, a menos que
la instrucción sea una instrucción de salto, informando al ordenador de
que la próxima instrucción estará ubicada en otra posición de la
memoria).
- Los procesadores pueden constar de además de las anteriormente citadas, de otras unidades adicionales como la unidad de Coma Flotante
Periféricos y dispositivos auxiliares
Monitor
El
monitor o
pantalla de computadora, es un dispositivo
de salida que, mediante una interfaz, muestra los resultados, o los
gráficos del procesamiento de una computadora. Existen varios tipos de
monitores: los de
tubo de rayos catódicos (o
CRT), los de
pantalla de plasma (
PDP), los de
pantalla de cristal líquido (o
LCD), de paneles de
diodos orgánicos de emisión de luz (OLED), o
Láser-TV, entre otros.
Teclado
Un
teclado de computadora es un
periférico,
físico o virtual (por ejemplo teclados en pantalla o teclados
táctiles), utilizado para la introducción de órdenes y datos en una
computadora. Tiene su origen en los
teletipos y las
máquinas de escribir eléctricas,
que se utilizaron como los teclados de los primeros ordenadores y
dispositivos de almacenamiento (grabadoras de cinta de papel y tarjetas
perforadas). Aunque físicamente hay una miríada de formas, se suelen
clasificar principalmente por la
distribución de teclado
de su zona alfanumérica, pues salvo casos muy especiales es común a
todos los dispositivos y fabricantes (incluso para teclados árabes y
japoneses).
Ratón
El
mouse (del
inglés, pronunciado
[ˈmaʊs]) o
ratón es un
periférico de computadora de uso manual, utilizado como entrada o control de datos. Se utiliza con una de las dos
manos del usuario y detecta su movimiento relativo en
dos dimensiones por la superficie horizontal en la que se apoya, reflejándose habitualmente a través de un puntero o flecha en el
monitor.
Anteriormente, la información del desplazamiento era transmitida
gracias al movimiento de una bola debajo del ratón, la cual accionaba
dos rodillos que correspondían a los ejes X e Y. Hoy, el puntero
reacciona a los movimientos debido a un rayo de luz que se refleja entre
el ratón y la superficie en la que se encuentra. Cabe aclarar que un
ratón óptico apoyado en un espejo o sobre un barnizado por ejemplo es
inutilizable, ya que la luz láser no desempeña su función correcta. La
superficie a apoyar el ratón debe ser opaca, una superficie que no
genere un reflejo, es recomendable el uso de
alfombrillas.
Impresora
Una
impresora es un
periférico
de computadora que permite producir una copia permanente de textos o
gráficos de documentos almacenados en formato electrónico, imprimiendo
en papel de lustre los datos en medios físicos, normalmente en
papel o transparencias, utilizando cartuchos de tinta o tecnología
láser.
Muchas impresoras son usadas como periféricos, y están permanentemente
unidas a la computadora por un cable. Otras impresoras, llamadas
impresoras de red, tienen una interfaz de red interna (típicamente
wireless o Ethernet), y que puede servir como un dispositivo para
imprimir en papel algún documento para cualquier usuario de la red. Hoy
en día se comercializan impresoras multifuncionales que aparte de sus
funciones de impresora funcionan simultáneamente como fotocopiadora y
escáner, siendo éste tipo de impresoras las más recurrentes en el
mercado.
Escáner
En
informática, un
escáner (del
idioma inglés:
scanner) es un
periférico
que se utiliza para convertir, mediante el uso de la luz, imágenes o
cualquier otro impreso a formato digital. Actualmente vienen unificadas
con las impresoras formando
multifunciones
Impresora multifunción
Impresora multifuncional.
Una
impresora multifunción o dispositivo multifuncional es un
periférico que se conecta a la computadora y que posee las siguientes
funciones dentro de un único bloque físico:
Impresora,
escáner,
fotocopiadora, ampliando o reduciendo el original,
fax (opcionalmente). Lector de
memoria para la impresión directa de fotografías de
cámaras digitales Disco duro (las unidades más grandes utilizadas en oficinas) para almacenar documentos e imágenes En ocasiones, aunque el
fax no esté incorporado, la impresora multifunción es capaz de controlarlo si se le conecta a un puerto
USB.
Almacenamiento Secundario
El
disco duro es un sistema de
grabación magnética digital, es donde en la mayoría de los casos reside el
Sistema operativo
de la computadora. En los discos duros se almacenan los datos del
usuario. En él encontramos dentro de la carcasa una serie de platos
metálicos apilados girando a gran velocidad. Sobre estos platos se
sitúan los cabezales encargados de leer o escribir los impulsos
magnéticos.
Una
unidad de estado sólido es un sistema de memoria no volátil. Están formados por varios chips de memoria
NAND Flash
en su interior unidos a una controladora que gestiona todos los datos
que se transfieren. Tienen una gran tendencia a suceder definitivamente a
los discos duros mecánicos por su gran velocidad y tenacidad. Al no
estar formadas por discos en ninguna de sus maneras, no se pueden
categorizar como tal, aunque erróneamente se tienda a ello.
Altavoces
Los
altavoces se utilizan para escuchar los sonidos emitidos por el computador, tales como música, sonidos de errores, conferencias, etc.
- Altavoces de las placas base: Las placas base suelen llevar un
dispositivo que emite pitidos para indicar posibles errores o procesos, o
para indicar acciones para las personas con discapacidades visuales,
como la activación del bloq num, bloq mayus.
Otros conceptos y curiosidades
En la actualidad se puede tener la impresión de que los computadores
están ejecutando varios programas al mismo tiempo. Esto se conoce como
multitarea,
y es más común que se utilice el segundo término. En realidad, la CPU
ejecuta instrucciones de un programa y después tras un breve periodo de
tiempo, cambian a un segundo programa y ejecuta algunas de sus
instrucciones. Esto crea la ilusión de que se están ejecutando varios
programas simultáneamente, repartiendo el tiempo de la CPU entre los
programas. Esto es similar a la película que está formada por una
sucesión rápida de fotogramas. El sistema operativo es el programa que
generalmente controla el reparto del tiempo. El procesamiento simultáneo
viene con computadoras de más de un CPU, lo que da origen al
multiprocesamiento.
El
sistema operativo
es una especie de caja de herramientas lleno de utilerías que sirve
para decidir, por ejemplo, qué programas se ejecutan, y cuándo, y qué
fuentes (memoria o dispositivos E/S) se utilizan. El sistema operativo
tiene otras funciones que ofrecer a otros programas, como los códigos
que sirven a los programadores, escribir programas para una máquina sin
necesidad de conocer los detalles internos de todos los dispositivos
electrónicos conectados.
En la actualidad se están empezando a incluir en las distribuciones
donde se incluye el sistema operativo, algunos programas muy usados,
debido a que es ésta una manera económica de distribuirlos. No es
extraño que un sistema operativo incluya navegadores de
Internet,
procesadores de texto, programas de
correo electrónico, interfaces de red, reproductores de películas y otros programas que antes se tenían que conseguir e instalar separadamente.
Los primeros computadores digitales, de gran tamaño y coste, se utilizaban principalmente para hacer cálculos científicos.
ENIAC,
uno de los primeros computadores, calculaba densidades de neutrón
transversales para ver si explotaría la bomba de hidrógeno. El
CSIR Mk I,
el primer ordenador australiano, evaluó patrones de precipitaciones
para un gran proyecto de generación hidroeléctrica. Los primeros
visionarios vaticinaron que la programación permitiría jugar al ajedrez,
ver películas y otros usos.
La gente que trabajaba para los gobiernos y las grandes empresas
también usó los computadores para automatizar muchas de las tareas de
recolección y procesamiento de datos, que antes eran hechas por humanos;
por ejemplo, mantener y actualizar la contabilidad y los inventarios.
En el mundo académico, los científicos de todos los campos empezaron a
utilizar los computadores para hacer sus propios análisis. El descenso
continuo de los precios de los computadores permitió su uso por empresas
cada vez más pequeñas. Las empresas, las organizaciones y los gobiernos
empezaron a emplear un gran número de pequeños computadores para
realizar tareas que antes eran hechas por computadores centrales grandes
y costosos. La reunión de varios pequeños computadores en un solo lugar
se llamaba
torre de servidores[cita requerida].
Con la invención del
microprocesador en
1970, fue posible fabricar computadores muy baratos. Nacen los computadores personales (
PC),
los que se hicieron famosos para llevar a cabo diferentes tareas como
guardar libros, escribir e imprimir documentos, calcular probabilidades y
otras tareas matemáticas repetitivas con
hojas de cálculo, comunicarse mediante
correo electrónico e
Internet.
Sin embargo, la gran disponibilidad de computadores y su fácil
adaptación a las necesidades de cada persona, han hecho que se utilicen
para varios propósitos.
Al mismo tiempo, los pequeños computadores son casi siempre con una
programación fija, empezaron a hacerse camino entre las aplicaciones del
hogar, los coches, los aviones y la maquinaria industrial. Estos
procesadores integrados controlaban el comportamiento de los aparatos
más fácilmente, permitiendo el desarrollo de funciones de control más
complejas como los sistemas de freno antibloqueo en los coches. A
principios del siglo 21, la mayoría de los aparatos eléctricos, casi
todos los tipos de transporte eléctrico y la mayoría de las líneas de
producción de las fábricas funcionan con un computador. La mayoría de
los ingenieros piensa que esta tendencia va a continuar.
Actualmente, los computadores personales son usados tanto para la investigación como para el entretenimiento (
videojuegos),
pero los grandes computadores aún sirven para cálculos matemáticos
complejos y para otros usos de la ciencia, tecnología, astronomía,
medicina, etc.
Tal vez el más interesante "descendiente" del cruce entre el concepto de la PC o computadora personal y los llamados
supercomputadores sea la
Workstation
o estación de trabajo. Este término, originalmente utilizado para
equipos y máquinas de registro, grabación y tratamiento digital de
sonido, y ahora utilizado precisamente en referencia a estaciones de
trabajo (traducido literalmente del inglés), se usa para dar nombre a
equipos que, debido sobre todo a su utilidad dedicada especialmente a
labores de cálculo científico, eficiencia contra reloj y accesibilidad
del usuario bajo programas y software profesional y especial, permiten
desempeñar trabajos de gran cantidad de cálculos y "fuerza" operativa.
Una Workstation es, en esencia, un equipo orientado a trabajos
personales, con capacidad elevada de cálculo y rendimiento superior a
los equipos PC convencionales, que aún tienen componentes de elevado
coste, debido a su diseño orientado en cuanto a la elección y conjunción
sinérgica de sus componentes. En estos casos, el software es el
fundamento del diseño del equipo, el que reclama, junto con las
exigencias del usuario, el diseño final de la Workstation.
[cita requerida]
Etimología de la palabra ordenador
La palabra española
ordenador proviene del término francés
ordinateur, en referencia a Dios que pone orden en el mundo ("Dieu qui met de l'ordre dans le monde"). En parte por cuestiones de marketing, puesto que la descripción realizada por
IBM
para su introducción en Francia en 1954 situaba las capacidades de
actuación de la máquina cerca de la omnipotencia, idea equivocada que
perdura hoy en día al considerar que la máquina universal de Turing es
capaz de computar absolutamente todo. En 1984, académicos franceses reconocieron, en el debate
Les jeunes, la technique et nous, que el uso de este sustantivo es incorrecto, porque la función de un computador es procesar datos, no dar órdenes.Mientras que otros, como el catedrático de filología latina Jacques
Perret, conocedores del origen religioso del término, lo consideran más
correcto que las alternativas.
El uso de la palabra
ordinateur se ha exportado a algunos idiomas de la
península Ibérica, como el
aragonés, el
asturiano, el
gallego, el
castellano, el
catalán y el
euskera. El español que se habla en
Iberoamérica, así como los demás idiomas europeos, como el portugués, el alemán y el holandés, utilizan términos derivados de
computare.
Software libre
El
software libre (en
inglés free software, aunque esta denominación también se confunde a veces con
"gratis" por la ambigüedad del término
"free" en el
idioma inglés, por lo que también se usan
"libre software" y
"logical libre") es la denominación del
software que respeta la
libertad
de todos los usuarios que adquirieron el producto y, por tanto, una vez
obtenido el mismo puede ser usado, copiado, estudiado, modificado, y
redistribuido libremente de varias formas. Según la
Free Software Foundation, el
software libre se refiere a la
libertad de los usuarios para ejecutar, copiar, distribuir, y estudiar el mismo, e incluso modificar el
software y distribuirlo modificado.
El software libre suele estar disponible gratuitamente, o al precio
de costo de la distribución a través de otros medios; sin embargo no es
obligatorio que sea así, por lo tanto no hay que asociar
software libre a
"software gratuito" (denominado usualmente
freeware), ya que, conservando su carácter de libre, puede ser distribuido
comercialmente ("software comercial"). Análogamente, el "software gratis" o "gratuito" incluye en ocasiones el
código fuente; no obstante, este tipo de software
no es libre
en el mismo sentido que el software libre, a menos que se garanticen
los derechos de modificación y redistribución de dichas versiones
modificadas del programa.
Tampoco debe confundirse
software libre con "software de
dominio público". Éste último es aquel software que no requiere de
licencia,
pues sus derechos de explotación son para toda la humanidad, porque
pertenece a todos por igual. Cualquiera puede hacer uso de él, siempre
con fines legales y consignando su autoría original. Este software sería
aquel cuyo autor lo dona a la humanidad o cuyos
derechos de autor han expirado, tras un plazo contado desde la muerte de éste, habitualmente 70 años. Si un
autor condiciona su uso bajo una licencia, por muy débil que sea, ya no es del dominio público.
Historia
Entre los años 1960 y 1970, el
software no era considerado un producto sino un añadido que los vendedores de las grandes
computadoras de la época (las
mainframes) aportaban a sus clientes para que éstos pudieran usarlos. En dicha cultura, era común que los
programadores y desarrolladores de software compartieran libremente sus
programas
unos con otros. Este comportamiento era particularmente habitual en
algunos de los mayores grupos de usuarios de la época, como
DECUS
(grupo de usuarios de computadoras DEC). A finales de la década de
1970, las compañías iniciaron el hábito de imponer restricciones a los
usuarios, con el uso de acuerdos de
licencia.
En 1971, cuando la
informática
todavía no había sufrido su gran boom, las personas que hacían uso de
ella, en ámbitos universitarios y empresariales, creaban y compartían el
software sin ningún tipo de restricciones.
Con la llegada de los años 1980 la situación empezó a cambiar. Las
computadoras más modernas comenzaban a utilizar
sistemas operativos privativos, forzando a los usuarios a aceptar condiciones restrictivas que impedían realizar modificaciones a dicho software.
En caso de que algún usuario o programador encontrase algún error en
la aplicación, lo único que podía hacer era darlo a conocer a la empresa
desarrolladora para que ésta lo solucionara. Aunque el programador
estuviese capacitado para solucionar el problema y lo desease hacer sin
pedir nada a cambio, el contrato le impedía que modificase el software.
El mismo
Richard Matthew Stallman cuenta que por aquellos años, en el laboratorio donde trabajaba, habían recibido una
impresora
donada por una empresa externa. El dispositivo, que era utilizado en
red por todos los trabajadores, parecía no funcionar a la perfección,
dado que cada cierto tiempo el papel se atascaba. Como agravante, no se
generaba ningún aviso que se enviase por red e informase a los usuarios
de la situación.
La pérdida de tiempo era constante, ya que en ocasiones, los
trabajadores enviaban por red sus trabajos a imprimir y al ir a
buscarlos se encontraban la impresora atascada y una cola enorme de
trabajos pendientes.
Richard Stallman decidió arreglar el problema, e implementar el envío de un aviso por red cuando la
impresora se bloqueara. Para ello necesitaba tener acceso al
código fuente de los
controladores de la
impresora.
Pidió a la empresa propietaria de la impresora lo que necesitaba,
comentando, sin pedir nada a cambio, qué era lo que pretendía realizar.
La empresa se negó a entregarle el código fuente. En ese preciso
instante, Stallman se vio en una encrucijada: debía elegir entre aceptar
el nuevo
software propietario
firmando acuerdos de no revelación y acabar desarrollando más software
propietario con licencias restrictivas, que a su vez deberían ser más
adelante aceptadas por sus propios colegas.
Con este antecedente, en 1984, Richard Stallman comenzó a trabajar en el proyecto
GNU, y un año más tarde fundó la
Free Software Foundation (FSF). Stallman introdujo la definición de software libre y el concepto de "
copyleft", que desarrolló para otorgar libertad a los usuarios y para restringir las posibilidades de apropiación del software.
Libertades del software libre
De acuerdo con tal definición, un software es "libre" cuando garantiza las siguientes libertades:
Libertad |
Descripción |
0 |
la libertad de usar el programa, con cualquier propósito. |
1 |
la libertad de estudiar cómo funciona el programa y modificarlo, adaptándolo a tus necesidades. |
2 |
la libertad de distribuir copias del programa, con lo cual puedes ayudar a tu prójimo. |
3 |
la libertad de mejorar el programa y hacer públicas esas mejoras a los demás, de modo que toda la comunidad se beneficie. |
Las libertades 1 y 3 requieren acceso al código fuente porque estudiar y modificar software sin su código fuente es muy poco viable. |
Ciertos teóricos usan este cuarto punto (libertad 3) para justificar parcialmente las limitaciones impuestas por la licencia
GNU GPL frente a otras licencias de software libre (ver
Licencias GPL).
Sin embargo el sentido original es más libre, abierto y menos
restrictivo que el que le otorga la propia situación de
incompatibilidad, que podría ser resuelta en la próxima versión 3.0 de
la licencia
GNU GPL, que causa en estos momentos graves perjuicios a la comunidad de
programadores
de software libre, ya que muchas veces no se puede reutilizar o mezclar
códigos de dos licencias distintas, pese a que las libertades
teóricamente lo deberían permitir.
Tanto la
Open Source Initiative como la
Free Software Foundation , mantienen en sus webs oficiales, listados de las
licencias de software libre que aprueban.
El término
software no libre
se emplea para referirse al software distribuido bajo una licencia de
software más restrictiva que no garantiza estas cuatro libertades. Las
leyes de la
propiedad intelectual reservan la mayoría de los derechos de modificación, duplicación, y redistribución, para el dueño del
copyright; el software dispuesto bajo una licencia de software libre rescinde específicamente la mayoría de estos derechos reservados.
La definición de software libre no contempla la cuestión del precio; un eslogan frecuentemente usado es
"libre como en libertad, no como en cerveza gratis" o en inglés
"Free as in freedom, not as in free beer" (aludiendo a la ambigüedad del término inglés "
free"), y es habitual ver a la venta
CD de software libre como
distribuciones Linux.
Sin embargo, en esta situación, el comprador del CD tiene el derecho de
copiarlo y redistribuirlo. El software gratis puede incluir
restricciones que no se adaptan a la definición de software libre —por
ejemplo, puede no incluir el código fuente, puede prohibir
explícitamente a los distribuidores recibir una compensación a cambio,
etc—.
Para evitar la confusión, algunas personas utilizan los términos "libre" (
software libre) y "gratis" (
software gratis)
para evitar la ambigüedad de la palabra inglesa "free". Sin embargo,
estos términos alternativos son usados únicamente dentro del
movimiento del software libre, aunque están extendiéndose lentamente hacia el resto del mundo. Otros defienden el uso del término
open source software
(software de código abierto). La principal diferencia entre los
términos "open source" y "free software" es que éste último tiene en
cuenta los aspectos éticos y filosóficos de la libertad, mientras que el
"open source" se basa únicamente en los aspectos técnicos.
En un intento por unir los mencionados términos que se refieren a
conceptos semejantes, se está extendiendo el uso de la palabra "
FLOSS" con el significado de
free/libre and open source software e, indirectamente, también a la comunidad que lo produce y apoya.
Tipos de licencias
Una licencia es aquella autorización formal con carácter contractual
que un autor de un software da a un interesado para ejercer "actos de
explotación legales". Pueden existir tantas licencias como acuerdos
concretos se den entre el autor y el licenciatario. Desde el punto de
vista del software libre, existen distintas variantes del concepto o
grupos de licencias:
Licencias GPL
Una de las más utilizadas es la
Licencia Pública General de GNU (
GNU GPL).
El autor conserva los derechos de autor (copyright), y permite la
redistribución y modificación bajo términos diseñados para asegurarse de
que todas las versiones modificadas del software permanecen bajo los
términos más restrictivos de la propia
GNU GPL. Esto hace que sea imposible crear un producto con partes no licenciadas GPL: el conjunto tiene que ser GPL.
Es decir, la licencia GNU GPL posibilita la modificación y
redistribución del software, pero únicamente bajo esa misma licencia. Y
añade que si se reutiliza en un mismo programa código "A" licenciado
bajo licencia GNU GPL y código "B" licenciado bajo otro tipo de licencia
libre, el código final "C", independientemente de la cantidad y calidad
de cada uno de los códigos "A" y "B", debe estar bajo la licencia GNU
GPL.
En la práctica esto hace que las licencias de software libre se
dividan en dos grandes grupos, aquellas que pueden ser mezcladas con
código licenciado bajo GNU GPL (y que inevitablemente desaparecerán en
el proceso, al ser el código resultante licenciado bajo GNU GPL) y las
que no lo permiten al incluir mayores u otros requisitos que no
contemplan ni admiten la GNU GPL y que por lo tanto no pueden ser
enlazadas ni mezcladas con código gobernado por la licencia GNU GPL.
En el sitio web oficial de GNU hay una lista de licencias que cumplen las condiciones impuestas por la GNU GPL y otras que no.
5
Aproximadamente el 60% del software licenciado como software libre emplea una licencia GPL o de manejo
Licencias AGPL
La
Licencia Pública General de Affero (en inglés
Affero General Public License, también
Affero GPL o
AGPL) es una licencia
copyleft derivada de la
Licencia Pública General de GNU diseñada específicamente para asegurar la cooperación con la comunidad en el caso de software que corra en servidores de red.
La
Affero GPL es íntegramente una GNU GPL con una cláusula
nueva que añade la obligación de distribuir el software si éste se
ejecuta para ofrecer servicios a través de una red de ordenadores.
La
Free Software Foundation recomienda que el uso de la GNU AGPLv3 sea considerado para cualquier software que usualmente corra sobre una red.
Licencias estilo BSD
Llamadas así porque se utilizan en gran cantidad de software distribuido junto a los sistemas operativos
BSD.
El autor, bajo tales licencias, mantiene la protección de copyright
únicamente para la renuncia de garantía y para requerir la adecuada
atribución de la autoría en trabajos derivados, pero permite la libre
redistribución y modificación, incluso si dichos trabajos tienen
propietario. Son muy permisivas, tanto que son fácilmente absorbidas al
ser mezcladas con la licencia
GNU GPL
con quienes son compatibles. Puede argumentarse que esta licencia
asegura “verdadero” software libre, en el sentido que el usuario tiene
libertad ilimitada con respecto al software, y que puede decidir incluso
redistribuirlo como no libre. Otras opiniones están orientadas a
destacar que este tipo de licencia no contribuye al desarrollo de más
software libre (normalmente utilizando la siguiente analogía: "una
licencia BSD es más libre que una GPL si y sólo si se opina también que
un país que permita la esclavitud es más libre que otro que no la
permite").
Licencias estilo MPL y derivadas
Esta licencia es de Software Libre y tiene un gran valor porque fue
el instrumento que empleó Netscape Communications Corp. para liberar su
Netscape Communicator 4.0 y empezar ese proyecto tan importante para el
mundo del Software Libre: Mozilla. Se utilizan en gran cantidad de
productos de software libre de uso cotidiano en todo tipo de sistemas
operativos. La MPL es Software Libre y promueve eficazmente la
colaboración evitando el efecto "viral" de la GPL (si usas código
licenciado GPL, tu desarrollo final tiene que estar licenciado GPL).
Desde un punto de vista del desarrollador la GPL presenta un
inconveniente en este punto, y lamentablemente mucha gente se cierra en
banda ante el uso de dicho código. No obstante la MPL no es tan
excesivamente permisiva como las licencias tipo BSD. Estas licencias son
denominadas de copyleft débil. La NPL (luego la MPL) fue la primera
licencia nueva después de muchos años, que se encargaba de algunos
puntos que no fueron tenidos en cuenta por las licencias BSD y GNU. En
el espectro de las licencias de software libre se la puede considerar
adyacente a la licencia estilo BSD, pero perfeccionada.
Copyleft
Hay que hacer constar que el titular de los
derechos de autor
(copyright) de un software bajo licencia copyleft puede también
realizar una versión modificada bajo su copyright original, y venderla
bajo cualquier licencia que desee, además de distribuir la versión
original como software libre. Esta técnica ha sido usada como un modelo
de negocio por una serie de empresas que realizan software libre (por
ejemplo
MySQL); esta práctica
no restringe ninguno de los derechos otorgados a los usuarios de la versión
copyleft.
En España, toda
obra derivada
está tan protegida como una original, siempre que la obra derivada
parta de una autorización contractual con el autor. En el caso genérico
de que el autor retire las licencias "copyleft", no afectaría de ningún
modo a los productos derivados anteriores a esa retirada, ya que no
tiene efecto retroactivo. En términos legales, el autor no tiene derecho
a retirar el permiso de una licencia en vigencia. Si así sucediera, el
conflicto entre las partes se resolvería en un pleito convencional.
Comparación con el software de código abierto
Aunque en la práctica el
software de código abierto y el software libre comparten muchas de sus licencias, la
Free Software Foundation opina que el movimiento del software de código abierto es filosóficamente diferente del movimiento del software libre. Apareció en 1998 con un grupo de personas, entre los que cabe destacar a
Eric S. Raymond y
Bruce Perens, que formaron la
Open Source Initiative (OSI). Ellos buscaban darle mayor relevancia a los beneficios prácticos del compartir el
código fuente,
e interesar a las principales casas de software y otras empresas de la
industria de la alta tecnología en el concepto. Por otro lado, la Free
Software Foundation y
Richard Stallman prefieren plantear el asunto en términos éticos empleando el término "software libre".
Los defensores del término "código abierto", en inglés
open source, afirman que éste evita la ambigüedad del término en ese idioma que es
free en
free software. El término "código abierto" fue acuñado por
Christine Peterson del
think tank Foresight Institute, y se registró para actuar como
marca registrada el término en inglés para los productos de software libre.
Mucha gente reconoce el beneficio cualitativo del proceso de
desarrollo de software cuando los desarrolladores pueden usar, modificar
y redistribuir el código fuente de un programa. (
Véase también La Catedral y el Bazar).
El movimiento del software libre hace especial énfasis en los aspectos
morales o éticos del software, viendo la excelencia técnica como un
producto secundario de su estándar ético. El movimiento de código
abierto ve la excelencia técnica como el objetivo prioritario, siendo la
compartición del código fuente un medio para dicho fin. Por dicho
motivo, la FSF se distancia tanto del movimiento de código abierto como
del término "Código Abierto" (en inglés
Open Source).
Puesto que la OSI sólo aprueba las licencias que se ajustan a la
Open Source Definition
(definición de código abierto), la mayoría de la gente lo interpreta
como un esquema de distribución, e intercambia libremente "código
abierto" con "software libre". Aún cuando existen importantes
diferencias filosóficas entre ambos términos, especialmente en términos
de las motivaciones para el desarrollo y el uso de tal software,
raramente suelen tener impacto en el proceso de colaboración.
Aunque el término "código abierto" elimina la ambigüedad de libertad
frente a precio (en el caso del inglés), introduce una nueva: entre los
programas que se ajustan a la
definición de código abierto, que
dan a los usuarios la libertad de mejorarlos, y los programas que
simplemente tiene el código fuente disponible, posiblemente con fuertes
restricciones sobre el uso de dicho código fuente. Mucha gente cree que
cualquier software que tenga el código fuente disponible es de
código abierto, puesto que lo pueden manipular (un ejemplo de este tipo de software sería el popular paquete de software gratuito
Graphviz, inicialmente no libre pero que incluía el código fuente, aunque luego
AT&T
le cambió la licencia). Sin embargo, mucho de este software no da a sus
usuarios la libertad de distribuir sus modificaciones, restringe el uso
comercial, o en general restringe los derechos de los usuarios.
¿Qué es GNU?
GNU es un sistema operativo similar a Unix que es
software libre y respeta su
libertad. Puede instalar
versiones
de GNU (más precisamente, sistemas GNU/Linux) que son completamente
software libre.
El
Proyecto GNU se inició en 1984 para
desarrollar el sistema GNU. El nombre «GNU» (que significa «ñu» en inglés)
es un acrónimo recursivo de «¡GNU No es Unix!» y
en español se pronuncia
fonéticamente como una sílaba sin vocal entre la
g y la
n.
Los sistemas operativos similares a Unix se construyen a partir de un
conjunto de aplicaciones, bibliotecas y herramientas
de programación, además de un programa para alojar recursos e interactuar
con el hardware, denominado núcleo.
Hurd, el núcleo propio de GNU, está
lejos de poderse usar en el día a día. Por este motivo, GNU se usa
habitualmente con un núcleo denominado Linux. Esta combinación es el
sistema operativo
GNU/Linux. GNU/Linux lo usan millones de personas, aunque
muchos lo
denominan «Linux» por
error.
Linux es un
Unix libre, es
decir, un sistema
operativo, como el
Windows o el
MS-DOS (sin
embargo, a diferencia de estos y otros
sistemas
operativos propietarios, ha sido desarrollado por miles de
usuarios de computadores a través del mundo, y la
desventaja de estos es que lo que te dan es lo que tu obtienes,
dicho de otra forma no existe posibilidad de realizar
modificaciones ni de saber como se realizó dicho sistema.), que
fue creado inicialmente como un hobbie por un estudiante joven,
Linus Torvalds, en la
universidad de
Helsinki en Finlandia, con asistencia por un
grupo de
hackers a
través de
Internet. Linus tenía
un
interés
en Minix, un sistema pequeño o abreviado del UNIX
(desarrollado por Andy Tanenbaum); y decidido a desarrollar un
sistema que excedió los estándares de Minix.
Quería llevar a cabo un sistema operativo que aprovechase
la
arquitectura
de 32 bits para multitarea y eliminar la barreras del
direccionamiento de
memoria.
Torvalds empezó escribiendo el núcleo del
proyecto en
ensamblador, y
luego comenzó a añadir
código
en C, lo cual incrementó la
velocidad de
desarrollo, e
hizo que empezara a tomarse en serio su idea.
Él comenzó su
trabajo en 1991 cuando él
realizó la versión 0,02, la cual no la dió a
conocer porque ni siquiera tenía drivers de disquete,
además de llevar un sistema de
almacenamiento de
archivos muy
defectuoso.
Trabajó constantemente hasta 1994 en que la versión
1,0 del núcleo(KERNEL) de
Linux se
concretó. La versión completamente equipada actual
es 2,2 (versión concluída el 25 de enero de 1999),
y el desarrollo
continúa.
Linux tiene todas las
prestaciones
que se pueden esperar de un Unix moderno y completamente
desarrollado: multitarea real, memoria
virtual,
bibliotecas
compartidas, carga de sistemas
a-
demanda,
compartimiento, manejo de debido de
la memoria y
soporte de
redes TCP/IP.
Linux corre principalmente en PCs basados en
procesadores
386/486/586, usando las facilidades de
proceso de
la familia de
procesadores 386
(
segmentación TSS, etc.) para implementar
las
funciones
nombradas.
La parte central de Linux (conocida
como núcleo o kernel) se distribuye a través de la
Licencia Pública General GNU, lo que basicamente significa
que puede ser copiado libremente, cambiado y distribuído,
pero no es posible imponer restricciones adicionales a los
productos
obtenidos y, adicionalmente, se debe dejar el código
fuente disponible, de la misma forma que está disponible
el código de Linux. Aún cuando Linux tenga
registro de
Copyright, y no sea estrictamente de
dominio
público. La licencia tiene por objeto asegurar que Linux
siga siendo gratuito y a la vez estandar.
Por su
naturaleza Linux
se distribuye libremente y puede ser obtenido y utilizado sin
restricciones por cualquier
persona,
organización o
empresa que
así lo desee, sin necesidad de que tenga que firmar
ningún documento ni inscribirse como usuario. Por todo
ello, es muy difícil establecer quiénes son los
princiales usuarios de Linux. No obstante se sabe que actualmente
Linux está siendo utilizado ampliamente en soportar
servicios en
Internet, lo
utilizan Universidades alrededor del todo el mundo para sus
redes y sus
clases, lo utilizan
empresas
productoras de equipamiento industrial para vender como
software de apoyo a su
maquinaria, lo utilizan cadenas de supermercados, estaciones de
servicio y
muchas
instituciones
del
gobierno y
militares de varios países. Obviamente, también es
utilizado por miles de usuarios en sus computadores personales.
El apoyo más grande, sin duda, ha sido Internet ya que a
través de ella se ha podido demostrar que se puede crear
un sistema operativo para todos los usuarios sin la necesidad de
fines lucrativos.
Linux tiene una mascota oficial,
el pingüino de Linux , que fue
seleccionado por Linus Torvalds para representar la
imagen que
él
se asocia al sistema operativo él
creó.
Aunque existen muchas variaciones de la palabra Linux,
es lo más a menudo posible pronunciada con un
cortocircuito " i " y con la primera sílaba tensionada,
como en LIH-nucks.
Básicamente podemos decir que hoy Linux es un
sistema muy completo. El proyecto de Linus
Torvalds aún no ha terminado, y se piensa que nunca se
terminará por ésta continua
evolución de la
Informática.
II- Caracteristicas
En líneas generales podemos decir que se dispone
de varios tipos de sistema de archivos para
poder acceder
a archivos en otras plataformas. Incluye un entorno
gráfico X window (Interface gráfico estandard para
máquinas UNIX), que nada tiene que envidiar
a los modernos y caros entornos comerciales. Está
orientado al trabajo en
red, con todo tipo de
facilidades como correo
electrónico por ejemplo. Posee cada vez más
software de libre
distribución, que desarrollan miles de
personas a lo largo y ancho del planeta. Linux es ya el sistema
operativo preferido por la mayoría de los
informáticos.
Un ejemplo de la popularidad que ha alcanzado es sistema y la
confianza que se puede depositar en él es que incluso la
NASA ha encomendado misiones espaciales de
control de
experimentos a
la
seguridad y la
eficacia de
Linux.
Por lo tanto, la gran popularidad de Linux incluye los
siguientes puntos:
- Se distribuye su código fuente, lo cual
permite a cualquier persona que
así lo desee hacer todos los cambios necesarios para
resolver problemas
que se puedan presentar, así como también agregar
funcionalidad. El único requisito que esto conlleva es
poner los cambios realizados a disposición del
público.
- Es desarrollado en forma abierta por cientos de
usuarios distribuídos por todo el mundo, los cuales la
red Internet
como medio de comunicación y colaboración. Esto
permite un rápido y eficiente ciclo de
desarrollo.
- Cuenta con un amplio y robusto soporte para comunicaciones y redes, lo cual hace que sea una
opción atractiva tanto para empresas como
para usuarios individuales.
- Da soporte a una amplia variedad de hardware y se
puede correr en una multitud de plataformas: PC's
convencionales, computadoras
Macintosh y Amiga, así como costosas estaciones de
trabajo
es un proyecto socio-tecnológi
co abierto,
construido de forma
colaborativa,
centrado en el desarrollo de herramientas y modelos productivos basados
en las Tecnologías de Información (TI) Libres de software y sistemas
operativos cuyo objetivo es generar capacidades nacionales, desarrollo
endógeno, apropiación y promoción del libre
conocimiento, sin perder su motivo original: la
construcción de una nación venezolana tecnológicamente preparada.
Actualmente Canaima impulsa grandes proyectos nacionales tanto a nivel públi
co como privado, entre los que se encuentran el Proyecto Canaima Educativo, el Plan Internet equipado de CANTV, entre otros.
es una comunidad conformada por
desarrolladores y
usuarios, que mantiene un
sistema operativo GNU basado en
software libre. El sistema se encuentra precompilado, empaquetado y en un formato
deb para múltiples
arquitecturas de computador y para varios
núcleos.
Nació como una apuesta por separar en sus versiones el
software libre del
software no libre. El modelo de desarrollo del proyecto es ajeno a motivos empresariales o comerciales, siendo llevado adelante por los propios
usuarios, aunque cuenta con el apoyo de varias
empresas en forma de infraestructuras. Debian no vende directamente su
software, lo pone a disposición de cualquiera en
Internet, aunque sí permite a personas o
empresas distribuirlo comercialmente mientras se respete su
licencia.
3
La comunidad de desarrolladores del proyecto cuenta con la representación de
Software in the Public Interest,
4 una
organización sin ánimo de lucro que da cobertura legal a varios proyectos de
software libre.
La primera adaptación del
sistema Debian, siendo también la más desarrollada, es
Debian GNU/Linux, basada en el
núcleo Linux, y como siempre utilizando herramientas de
GNU. Existen también otras adaptaciones con diversos
núcleos:
Hurd (
Debian GNU/Hurd);
NetBSD (
Debian GNU/NetBSD) y
FreeBSD (
Debian GNU/kFreeBSD).
es un sistema operativo mantenido por unas reglas y la comunidad informática. Utiliza un núcleo
Linux, y su origen está basado en
Debian.
Ubuntu está orientado al usuario novel y promedio, con un fuerte
enfoque en la facilidad de uso y en mejorar la experiencia de usuario.
Está compuesto de múltiple
software normalmente distribuido bajo una
licencia libre o de
código abierto. Estadísticas web sugieren que la cuota de mercado de Ubuntu dentro de las "distribuciones Linux" es, aproximadamente, del 49%
3 4 , y con una tendencia a aumentar como servidor web.
5 Y un importante incremento activo de 20 millones de usuarios para fines del 2011.
6
Su patrocinador,
Canonical, es una compañía británica, propiedad del empresario
sudafricano Mark Shuttleworth, ofrece el sistema de manera gratuita, y se financia por medio de servicios vinculados al sistema operativo
7 8 y vendiendo
soporte técnico.
9
Además, al mantenerlo libre y gratuito, la empresa es capaz de
aprovechar los desarrolladores de la comunidad para mejorar los
componentes de su sistema operativo. Extraoficialmente, la comunidad de
desarrolladores proporciona soporte para otras derivaciones de Ubuntu,
con otros entornos gráficos, como
Kubuntu,
Xubuntu,
Edubuntu,
Ubuntu Studio,
Mythbuntu,
Ubuntu Gnome y
Lubuntu.
10
Canonical, además de mantener Ubuntu, también provee de una versión orientada a
servidores,
Ubuntu Server, una versión para empresas,
Ubuntu Business Desktop Remix, una para televisores,
Ubuntu TV, y una para usar el escritorio desde teléfonos inteligentes,
Ubuntu for Android.
11 12 13
Cada seis meses se publica una nueva versión de Ubuntu. Esta recibe
soporte por parte de Canonical, durante nueve meses, por medio de
actualizaciones de seguridad, parches para
bugs críticos y actualizaciones menores de programas. Las versiones LTS (
Long Term Support), que se liberan cada dos años,
14 reciben soporte durante cinco años en los
sistemas de escritorio y de servidor.
15