Sociedad digital y conocimiento






descargar 46.69 Kb.
títuloSociedad digital y conocimiento
fecha de publicación24.06.2015
tamaño46.69 Kb.
tipoDocumentos
l.exam-10.com > Ley > Documentos

Nuevas tecnologías

Revolución

INTERNET

Sociedad digital

Conocimiento




Nerea Blanco Marañón

Sociedad digital y conocimiento

Curso 2009 – 2010

1. HISTORIA DE INTERNET

El primer momento que hay que señalar, es el 4 de octubre de 1957: el lanzamiento de el primer satélite artificial de la historia, el Sputnik. Creado por la URSS, supuso una gran amenaza a EE.UU, quien a pesar de haber desarrollado la bomba atómica, no iban por delante en astronáutica. Se habían quedado rezagados. “Era necesario hacer algo, y grande, y deprisa. El gigante relajado se puso en pie de un brinco. Y el mundo tembló, y cambió para siempre.”1

Como reacción crean la National Defense Educational Act, que permite la proliferación de programas de formación en ciencias básicas, para aumentar el nivel científico en EE.UU. Por otra parte, hubo gigantescas inversiones militares, que incluyeron la creación de un departamento de científicos que se denominó Advanced Research Projects Agency (ARPA). Y de ARPA (a veces DARPA) y la NDEA habría de nacer el Internet anárquico que hoy conocemos.

El segundo momento, ocurre en 1962, cuando se crea la institución IPTO dentro de ARPA para conseguir conectar ordenadores heterogéneos. Será diez años después cuando surja ARPAnet, consiguiendo un cierto éxito. El dirigente de esta institución será Licklider , quien además será el encargado de realizar estudios de inteligencia artificial. Su tarea consistía en recopilar datos y combinarlos con los procesos de la mente humana. Será quien encargue a Davis y Baran, la conexión de los ordenadores no homogéneos. Estos dos investigadores se basarán en tres puntos que serán los que permitan el desarrollo de Arpanet, como primera aproximación al Internet que conocemos hoy. Estos tres puntos son:

- La construcción de un protocolo para llevar a cabo la homogeinización

- Lo que denominaron Best Efforce, que permitiría lanzar la información sin que hubiera alguien al otro lado, algo impensable cuando lo que se usaba era el teléfono.

- Fraccionar los datos en pequeños paquetes de información.

En 1974 Vinton Cerf perfecciona crea el protocolo TCP. –Transmision Control Protocol- que permite interconectar tres grandes redes al menos a modo de prueba: ARPANet, Packet Radio Network y la Atlantic Packet Satellite network.

El protocolo TCP proporciona un servicio de comunicación que forma un circuito virtual, el cual es llamado una conexión. Proporciona un servicio de conexión entre los programas llamados y los que llaman, chequeo de errores, control de flujo y capacidad de interrupción.

En 1978 el protocolo TCP, se divide en dos: TCP/IP. Las siglas IP, hacen referencia al Protocolo de Internet, el cual no está orientado a la conexión, sino para la comunicación de datos a través de una red de paquetes conmutados. Como vemos, aquí se aplica ya el tercer punto planteado por Davis y Baran, pero no proporciona seguridad de que los datos alcancen su destino. Esto es así porque utiliza el sistema best efforce (el mejor esfuerzo) que es el que también planteaban desde ARPA. La fiabilidad de que los datos lleguen enteros y no dañados será dada por el protocolo TCP.

Estos protocolos han permitido mostrar como se produce el paso de “lo físico” a lo “no-físico”. Algo que se puede ver en la Pila OSI. El protocolo IP se encuentra en el nivel de Red, mientras que el de TCP, es el que aparece en el nivel del transporte.


En Resumen:

  1. En los años 50, lanzamiento del Sputnik por parte de la Unión Soviética y EEUU crea ARPA.

  2. En 1962 se crea IPTO.

  3. En 1974 aparece el protocolo TCP.

  4. En 1968 se utiliza el protocolo TCP/IP




2. DOCUMENTO ELECTRÓNICO

“Un documento es una información registrada que se produce o recibe en el marco de la gestión de una actividad institucional o personal y que engloba el contenido, el contexto y la estructura, sirviendo de prueba a la actividad que le ha dado origen”. Sin embargo esta definición poco nos dice en relación con los documentos electrónicos que son definidos como: “Documento que puede ser manipulado, transmitido o tratado por un ordenador”

En definitiva documento electrónico es aquel que ha sido generado o recibido por una persona o entidad y que ha sido producido o almacenado usando las tecnologías informáticas.

Las características principales del Documento Electrónico o eDoc, son varias. Pero lo importante de tales características son los cambios que introducen a la nueva forma de comunicarse. La sociedad ha sufrido cambios importantes en este nueva era que podría denominarse de la Información. Esta nueva forma de almacenar y crear contenidos determinan las formas de la actividad cultural del siglo XXI. Podemos señalar que nos hayamos ante un proceso similar al ocurrido con la aparición del alfabeto y de la imprenta.

En primer lugar todo documento electrónico separa forma y contenido. Lo que nosotros vemos viene determinado por un lenguaje que hay bajo la apariencia principal. En el caso del documento denominado páginas Web, esto es posible debido al lenguaje HTML. Este es un lenguaje de metadatos no extensible, orientado a la presentación de contenidos que permite establecer conexiones entre objetos y textos. Dentro de este, se deberán utilizar otros para realizar tales páginas. En documentos que no sean páginas Web, como puedan ser los que terminen en extensiones como .ppt, .doc, .xls, el lenguaje que se utiliza de fondo (código) tiene las mismas características que el HTML, pero al ser de una empresa privada no resulta código abierto. Es un código propio de la empresa (Microsoft).

Cuando observamos la estructura interna del documento (el código) encontraremos dos partes que serán las que nos diferencien forma y contenido. La primera viene caracterizada por lo que se ha denominado Head. En esta zona se darán las características de la forma: el estilo de las letras, o cualquier otro objeto de la página, el nombre de la misma, así como el comportamiento que tendrá la página cuando se actúe sobre ella.

En lo que se denomina Body, se incluirá el contenido visual o sonoro que se quiere introducir en el documento.

Hay que señalar que además actúa por capas, lo que permite que al realizar cambios en una de ellas, no se afecte a las demás. Pongamos el caso que está sucediendo mientras escribo en el procesador de texto. Puedo no preocuparme de la presentación del mismo mientras escribo, pues gracias a este posibilidad de actuar por capas, puedo escribir primero y poner el estilo del texto después, algo que anteriormente no era posible.

También varía el modo de conectar los textos. Podemos realizar hipervínculos. Estos son elementos que permiten hacer referencia a otro recurso, permitiendo acceder al mismo de diferentes formas (visitarlo con un agente de navegación, mostrarlo como parte del documento o guardarlo localmente). Estos pueden ser vínculos al mismo documento, sólo que a otra posición más arriba o más abajo, o a otros con los que esté conectado a través de una red y un protocolo de acceso.


En resumen:

Todo documento electrónico separa forma y contenido, permite la incrustación de diferentes lenguajes, actúa por capas, varía el modo de conectar los textos, y provoca diferencias entre el autor digital y el autor clásico. Lo que provoca cambios en la sociedad en la que vivimos.
Por último, hace que haya diferencias entre los autores clásicos y los digitales, ya que para publicar actualmente en la red, es algo bien sencillo, pues no se requiere de la aprobación de una editorial. Algo que puede resultar tan positivo como negativo. A nadie se le niega su derecho de publicar, pero resulta demasiada información que puede producir ruido.

3. OPEN SOURCE VS. FREE SOFTWARE

Se denomina con estos nombres a dos movimientos sociales relacionados con las políticas de actuación respecto al conjunto de los programas, procedimientos, reglas, documentación y datos asociados que forman parte de las operaciones de un sistema de computación (software). Podemos afirmar que aunque en la práctica pueden parecer un mismo conjunto, tienen diferencias filosóficas.

Como vimos en el apartado anterior, todo documento electrónico tiene un código que permite entender cómo se ha realizado ese documento. Así mismo ocurre con los programas informáticos, que tienen un código por detrás que explican su funcionamiento. Este detalle es necesario para comprender las visiones de estos dos grupos, pues ambos defienden una característica básica: todo código debe ser visible a todos. Esto es lo que hace que se puedan confundir estos dos movimientos, pero ahora veremos cuáles son sus diferencias.

Open Source o código abierto, tiene una visión práctica y su idea es que mientras el código de los documentos sea abierto (visible para todos) será mejor, pues más gente podrá trabajar sobre él y mejorarán las condiciones (la calidad, la seguridad, las necesidades y la creatividad) a una velocidad superior.

En cambio desde Free Software apoyan esta misma idea, pero no tanto por la mejora, sino desde un punto de vista moral. Entienden que el software debe ser libre, siendo cuatro las libertades a las que apunta: usar el programa, con cualquier propósito; estudiar cómo funciona el programa y modificarlo, adaptándolo a tus necesidades; distribuir copias del programa; mejorar el programa y hacer públicas esas mejoras, de modo que toda la comunidad se beneficie.

En su visión, limitar estas libertades es inmoral. (Esta visión surge de la cultura hacker, que veremos en el apartado 5.)

Ninguno de estos dos movimientos tienen problemas con la venta de software, sino con las restricciones que se le ponen al comprador para que no pueda revenderlo, copiarlo o regalarlo. Defienden por lo tanto que es necesario por lo tanto que existan un tipo de licencias de software (un contrato entre proveedor y usuario) para que se delimiten los derechos y deberes de los usuarios.

Fue Free Software Foundation, fundación que inició y lidera el movimiento Free Software creada en 1984 por Richard Stallman, quien creó la licencia GPL GNU la cual asegura que cualquier software (licenciado bajo esa licencia) proteja los derechos que permiten copiarlo, distribuirlo, estudiarlo o modificarlo sin restricción. Pero cualquier modificación o software resultante deberá a su vez ser licenciado bajo GPL.


En Resumen

En común:

Apoyan licencias que aseguren unos derechos básicos: libre redistribución, acceso al código fuente, permiso de modificación.

Diferencias:

Desde un punto de vista Moral: Free software defiende que el software debe ser libre y por lo tanto que no deberías usar o crear software licenciado con una licencia que limite los derechos antes mencionados.

Desde un punto de vista Práctico: Como entiende que el código debe ser abierto por una cuestión práctica, por la mejor calidad del software, Open Source opina que puedes usar software Open Source y no Open Source cuando quieras.
El grupo Open Source nació a fines de los noventa por un grupo de participantes del movimiento Free Software, quienes tenían preocupaciones más prácticas sobre la calidad de los software y sobre la construcción de nuevos modelos de negocio. Este grupo estaba formado entre otros por Linus Torvalds (creador de Linux) y Eric Raymond (Catedral & Bazar). Esta colectividad entiende que para que un software pueda ser llamado Open Source debe cumplir con una licencia que asegure ciertas características que también cumplen la licencia GPL. Luego cualquier software que esté bajo esa licencia (cualquiera de sus versiones actuales) se denomina Open Source, aunque de fondo los creadores de la licencia sean otra colectividad distinta. Es necesario por lo tanto señalar que el software será denominado Open Source a causa de la licencia, ya que los programas no son Free Software ni Open Source en si.

4. CATEDRAL Y BAZAR

Como hemos visto, el movimiento del código abierto y el software libre, demandaban que se hicieran licencias que permitieran que se vieran los mecanismos (código) de los programas. En el caso de los componentes de Open Source creían que así todo avanzaría más rápido. ¿Cómo sería esto posible? ¿Qué es lo que ha ocurrido para que el código abierto provoque un avance entre otras cosas, en los programas?

Internet ha supuesto una revolución, es todos los campos del conocimiento. Nunca antes la información había estado al alcance de tantos. Además ha producido cambios en la comunicación y en el modo de hacer las cosas. Entre ellas, ahora no es necesario el contacto físico con un documento de texto (ya no hace falta un libro), pero tampoco es necesario el contacto con las otras personas. Ahora se pueden realizar proyectos a través de Internet, en el que colaboren diferentes personas que con sus conocimientos sobre la materia, sean capaces de realizar ciertos propósitos, dejando sus progresos en un lugar accesible para todos. Fue precisamente a partir del desarrollo del software libre cuando aparecieron nuevos métodos de trabajo. Los métodos de desarrollo de software libre, realizados por programadores muy variados y con distintas formas de codificar, funcionan en la práctica porque todo el producto está disponible desde el primer momento públicamente para su revisión y comprobación. Se logran resultados extensos a base de pequeñas contribuciones individuales pero muy numerosas.


Las metodologías tradicionales presuponen una organización del reparto de tareas gestionado mediante responsables que distribuyen y supervisan el trabajo. Se organizan mediante una jerarquización, con un orden muy específico. Cuando se trata de trabajo cooperativo voluntario a través de la Red ese esquema ya no es válido y se plantean nuevas formas de coordinación distribuida del trabajo. Resulta todo de un modo menos ordenado, pero el mínimo orden que se acepta ayuda a que lo que denominamos en una ocasión “caja de grillos”, aunque “suenen” cada uno cuando quieren, al final componen una hermosa melodía.

Los términos ``catedral'' y ``bazar'' hacen referencia a una metáfora de ambos enfoques que propuso Eric S. Raymond, del que ya comentamos anteriormente que fue uno de los defensores del código abierto, en su famoso libro titulado precisamente así, ``The Cathedral & the Bazaar''.

Lo curioso de este modo de trabajo, es que no afectó solo a la programación, sino que también se han realizado otra serie de proyectos a través de la red siguiendo este mismo método. Un caso relevante es la Wikipedia, que es el nuevo método de búsqueda de información, en contraposición a las enciclopedias en papel (que en la actualidad están introduciéndose en la red). Aquí son los propios usuarios los que escriben y crean las entradas que entienden necesarias, o que están poco o mal explicadas. Hay un mínimo de organización, pero parece que hay un interés creciente porque ese proyecto avance.

El problema que sucede en estos proyectos es que actualmente tendemos a dar mayor credibilidad a aquellos que tienen un jefe de fondo. La Red hace que además de información haya una cantidad seria de ruido que no nos permita encontrar la información correcta al primer vistazo.

Pero lo positivo es que los cambios se realizan constantemente. Hay actualizaciones continuamente que permiten un mejor conocimiento de la situación actual. Algo que no ocurre en los proyectos “catedral”.


En resumen:

Catedral: proyectos realizados de forma tradicional. Las personas están organizadas de forma jerárquica y específica. Suelen tener más credibilidad en un primer momento, aunque no están tan actualizados como los proyectos bazar.

Bazar: proyectos realizados con menos organización que permiten una mayor velocidad y actualización de contenidos. Surgen en la red y gracias al movimiento Open Source.


5. SOBRE LA CULTURA HACKER.

Ya hemos visto que alrededor de Internet han ido surgiendo diferentes movimientos sociales. La Red ha provocado una sociedad paralela que se conecta con la real. Los miembros de una sociedad lo son también de otra, pero formando parte de diferentes grupos sociales, según la sociedad en la que se encuentre.

Uno de esos grupos paralelos son los denominados hackers, que no son simples “ratas de ordenador”, sino que comparten unas prácticas, valores y una particular visión del mundo que se opone a una visión normativa y puramente comercial de la red. Como vemos, en Internet también se provocan conflictos sociales, que se trasladan y afectan a ambas sociedades (la de carne y hueso y la de los bits).

Fue en el MIT hacia 1958 cuando nacieron los primeros hackers, pues buscaron la manera de franquear las barreras impuestas por los administradores de los ordenadores que allí había y así conseguir acceso ilimitado a los sistemas. Este grupo se autodenominó así, ya que el comenzaron usando el termino Hack, que hacía referencia a un diseño original, simple y eficaz que resolvía determinado problema del ordenador.

Estos primeros hackers seguían un sistema de valores que generalmente se ha convenido en denominar ética hacker, y que se puede resumir en 5 puntos:

  1. Toda la información debe ser de libre acceso.

  2. El acceso a los ordenadores (y a todo lo que pueda enseñar algo acerca de cómo funciona el mundo) debe ser ilimitado y total.

  3. Desconfía de la autoridad. Promueve la descentralización. (Apoya por lo tanto los proyectos bazar)

  4. Un hacker debe ser valorado por sus hacks, sin atender a las titulaciones académicas, raza o posición social.

  5. Un hacker puede crear arte y belleza con un ordenador, no solo debe ser efectivo.

  6. los ordenadores pueden mejorar nuestras vidas.

Aunque en un principio pueda parecer que tan solo atienden a aspectos sobre la sociedad del conocimiento, hay un trasfondo de valores que se puede ver muy claramente. De hecho, estos son recogidos por el autor principal encargado del estudio de la ética hacker, Pekka Himanen. Alguno de ellos son: pasión, libertad, conciencia social, anti-Corrupción, lucha contra la alienación del hombre, igualdad social, conocimiento libre, reconocimiento entre semejantes, creatividad.

Es necesario entender que aunque hoy en día puedan seguir con un código ético parecido, resulta necesario aclarar ciertas cuestiones. Aunque podemos considerar a los hackers como una forma de colectivo revolucionario, que intentan trascender las leyes impuestas, es importante señalar que este fenómeno tiene una gran importancia porque además propone concepciones acerca de la propiedad de la información. También cabe señalar que se tiende a utilizar el término hacker, sobretodo desde los medios de comunicación privados, para englobar dos grupos distintos: hackers y crackers. Estos últimos, igual que los primeros, violan el sistema al que acceden, pero con valores morales distintos. Mientras que los primeros lo hacen por mostrar la debilidad del sistema y sacar beneficios para la comunidad, los segundos lo hacen con el fin de cometer un acto vandálico o sacar provecho para él mismo (generalmente económico).


  • La cultura hacker nace hacia los años 60.

  • El hacker viola sistemas en función de unos valores éticos que promueven, sobre todo, el conocimiento libre. Esto deriva en unos valores más profundos e intensos.

  • Es necesario distinguir entre hacker y cracker.

  • Esta ética se encuentra en los grupos de Free Software y Open Source surgidos con posterioridad.

En resumen:
Esta denominada ética hacker se encuentra ahora en la base de el grupo que denominamos Free Software, y en cierta medida en Open Source.

Tecno-optimismo

_

Tecnofobia

Cultura Hacker

Tecno-pesimismo

actitud

actividad

+

+

_

6. EL FUTURO DE INTERNET

Actualmente Internet es una parte más de nuestras vidas. Y hablo en plural, porque Internet está presente en todo el mundo, aunque no todas las personas tengan acceso a él, y no todas del mismo modo. Es el fenómeno qué más miedos y esperanzas provoca en la actualidad. El hecho de tener a todo el mundo conectado, es un hecho completamente nuevo.

Hay varios focos que provocan reacciones de los usuarios. El tamaño que ha adquirido y adquirirá, las funciones que se podrán realizar, los intereses de las grandes compañías por tener el control, o cómo el gobierno puede interrumpir el modo anárquico que actualmente se mantiene en la red, son algunos de ellos.

Si atendemos al tamaño de la red, podemos pensar, en general, en los aspectos positivos que esto podría aportarnos. La red ha ido creciendo hasta tener casi las mismas conexiones que hay en el cerebro humano y el tamaño es equivalente a tres millones de veces la cantidad de libros escritos en la historia. La cantidad de información hace que el conocimiento crezca a una gran velocidad y se estima que para el año 2020 el conocimiento se duplicará cada 73 días.

Otra proposición es que habrá una introducción clave que nos permitirá hacer cosas aun no planteadas. Se creará un software con capacidades humanas, para lo que sería necesario la introducción de una lógica diferente a la utilizada actualmente. (No sé si esta idea está relacionada con la creación de la Web semántica, pero creo que son dos ideas que van unidas). Se introducirá por tanto, la inteligencia artificial en Internet.

Desde mi punto de vista, lo que más puede afectarnos como usuarios es el intento de las empresas y gobiernos de atacar la horizontalidad del sistema. Además de la seguridad que deberían asegurarnos todos los servidores por los que pasa toda nuestra información.

Atendiendo al tema de la seguridad, debemos tener en cuenta que las redes sociales, así como el envío de e-mails, provocan que haya información nuestra que es administrada por otros. Además es curioso que al poner las fechas y nombres especiales, que luego utilizamos como contraseñas, estamos dando información a los demás usuarios, que puede utilizarse en nuestra contra. Todo esto debe tenerse en cuenta y deberían existir una serie de leyes para la red, al menos para controlar que los servidores no venden nuestra información (hay conspiraciones que apuntan a que Google, quien guarda copias de todos los correos que enviamos y los documentos que hacemos en GoogleDocs, está aliado con la CIA). Es algo destacable que no se intente poner ningún tipo de freno a estos gigantes, que aunque parezca jugar con las reglas de la horizontalidad de Internet, poco a poco se van haciendo con el poder de los programas más utilizados. Ya vimos el video Epic 2015, donde se van mostrando las guerras entre las empresas que quieren hacerse con este conjunto de información y posibilidades de comercio. Lo que parecía ser una red de comercio, poco a poco se convierte en un negocio.

Pero no solo están las empresas como Google o Microsoft metidas en este ajo, sino que como hemos podido ver en los últimos días, el gobierno español ha decidió involucrarse de lleno en la Red, algo a lo que no estábamos acostumbrados. Se ha creado una intensa batalla entre el mundo real y la sociedad de los bits a causa de la ley que pretende cerrar ciertas páginas Web. Desde Internet se apela al hecho de que esta ley facilita la existencia de unos monopolios prohibidos por la legislación europea.


Concusión:

Todo esto nos plantea la necesidad de estar alerta con las nuevas tecnologías y los procesos que se dan en la red, pues es la sociedad del futuro, pudiendo provocar cambios en las leyes que nos rodean, así como situaciones que hoy día podrían resultarnos ciencia-ficción, pero que en realidad no están tan lejanas.
Cabe señalar que el 21 de enero tuvo el primer juicio contra las páginas denominadas P2P, lo que podría aclarar de una vez si este tipo de Webs son obra de piratas como sostiene la industria cultural, y parece haber asumido el Gobierno, o meros intermediarios en el intercambio entre particulares. Esta sentencia puede suponer un hito clave en la guerra que mantiene la industria cultural con Internet por ser la primera y por conocerse justo cuando el Gobierno impulsa una ley ad hoc contra estas páginas.

1 http://blogs.20minutos.es/retiario/post/2007/10/04/internet-hijo-del-sputnik

Añadir el documento a tu blog o sitio web

similar:

Sociedad digital y conocimiento iconComunicación, Educación y Sociedad en el contexto digital. Preguntas...

Sociedad digital y conocimiento iconPara el arte de las relaciones
«mujeres y hombres de conocimiento». Los antropólogos los han definido como una nación o una raza, pero de hecho, fueron científicos...

Sociedad digital y conocimiento iconLa Era de la Información. Economía, Sociedad y Cultura. “La Sociedad Red”. Reseña crítica

Sociedad digital y conocimiento iconSe te presenta un texto para evaluar la habilidad de comprensión...

Sociedad digital y conocimiento iconResumen Tradicionalmente se entiende por epistemología a la teoría...

Sociedad digital y conocimiento iconLa educación no falta en ninguna sociedad ni en ningún momento de...

Sociedad digital y conocimiento iconCapítulo I: Las cegueras del conocimiento: el error y la ilusión...

Sociedad digital y conocimiento iconResumen: introduccióN: La era de la información y el conocimiento,...

Sociedad digital y conocimiento iconLa teoría del conocimiento es una parte importante de la filosofía....
«teoría del conocimiento» con otros términos como «epistemología», &c. Aquí nos limitaremos a exponer brevemente los problemas fundamentales...

Sociedad digital y conocimiento iconTema 5 la sociedad tecnologica actual y del futuro: visiones de la sociedad tecnologica






© 2015
contactos
l.exam-10.com