robots.txt

julio 18, 2007

Son conocidos como Spiders (arañas) a los bots de búsqueda que van revisando la WWW.
Los robots realizan sus tareas de formas automáticas y pueden generar conflictos al servidor, con por ejemplo, exceso de utilización de ancho de banda o accediendo a contenido que no debería tener acceso.

Para suplir este problema surgió el archivo robots.txt, este le informa a los bots a que archivos web tiene acceso y cuales no según el webmaster.

Se utiliza el paramento User-agent: para especificar sobre un bot en particular y Disallow: para especificar cuales son los directorios a “no revisar” (según el bot se pueden utilizar comodines).

Mas información en el estándar de exclusión de robots y en la ayuda de google (googlebot es el bot encargado de indexear las páginas para este buscador).


Otras formas de acceso a la enciclopedia libre

julio 12, 2007

Hay varias formas de acceder al contenido de Wikipedia, para que se pueda encontrar la información buscada de diferentes formas, ademas de navegando por los links o utilizando el buscador.

Omnipelagos: mediante dos palabras muestra las diferentes relaciones entre dos definiciones.

WikiMindMap: navegación entre los conceptos de wikipedia.

En la página de descarga de wikimedia se puede descargar una copia de los wikis en formato XML o en páginas HTML estáticos.

Exportando una entrada a formato XML.


Hotlinking: Qué es y cómo evitarlo

julio 4, 2007

El hotlinking, en la WWW, es la utilización del ancho de banda de otro sitio; mediante enlaces directos a los archivos (normalmente imagenes) y no a la página web de este otro sitio que enlaza a estos archivos.

Esta practica es considerada por algunos webmasters como “robo de ancho de banda y de visitas” dado que estos archivos no fueron descargados desde el sitio que se creo, sino desde uno externo.

Para evitar esto, por parte del que mantenga un sitio web, se pueden agregar marcas de agua a las imágenes (no evita el hotlinkig pero se da a conocer de donde se saco la imagen) y/o utilizar la directiva “RewriteCond” junto con el http_referer del archivo .htaccess (para servidores HTTP Apache) para evitar o redirigir el acceso a la imagen.

Si uno desea utilizar una imagen de otro sitio (teniendo en cuenta la licencia del contenido del sitio), pero sin realizar hotlinkig, puede descargar la imagen y subirla al propio servidor (o a otro que permita hotlinkig), utilizar la opción url de servidores gratuitos de imágenes como imageshack, o utilizar servicios como ImgRed, entre otras opciones.


Peligros del Peligro Abstracto

julio 1, 2007

Un peligro abstracto se puede entender como la acción cuya finalidad o efecto puede producir un daño a bienes comunes. Está posibilidad se suele ver desde un punto de vista subjetivo, dejando de lado el peligro concreto y acercándose mas a la generalización de “los peligros”.

Ejemplo de Peligro Abstracto

En esta tira cómica (dibujada por Perillo, vista en meneame) se ve como la posesión de un objeto, en un video juego, es considerada como “un peligro” por parte de la ESRB (entidad que clasifica los video juegos por edades). Sin tenerse en cuenta los fines por los que este objeto aparece en la escena. Un peligro sin un daño existente.


Ajedrez minimalista en JavaScript

julio 1, 2007

Menos de 5kb es lo que ocupa este ajedrez programado en JavaScript por Douglas Bagnall.
El código está un poco confuso; variables y nombre de funciones de pocos caracteres.

Ajedrez rey dama

Otro ajedrez programado en JavaScript con gráficos más bonitos y un código más extenso (menos de 12 kb) es el programado por Neil pearce.


La WWW y el W3C

junio 30, 2007

La World Wide Web son documentos de hipertextos, enlazados y con acceso, mediante Internet.
El “Protocolo de transferencia de hipertexto” o HTTP por sus siglas en ingles (RFC 2616 para la versión actual 1.1) es una de las principales tecnologías, a nivel aplicación, en que se basa la WWW.

HTTP

El W3C (World Wide Web Consortium) es un consorcio internacional formado por miembros y expertos técnicos que se dedican a tiempo completo, con la finalidad de producir estándares para la WWW.

Si bien en el sitio web de la W3C se encuentran las especificaciones de los estándares, en W3Schools se explica; con ejemplos incluidos y de una forma sencilla, varios de estas especificaciones.

Se puede validar páginas mediante los servicios de W3C: validación de (X)HTML y validación de CSS. O mediante herramientas del lado del cliente como por ejemplo la extensión, para el navegador web Mozilla Firefox, Web Developer.


Wikipedia y su credibilidad

junio 30, 2007

Wikipedia se describe como una enciclopedia libre plurilingüe basada en la tecnología wiki.
Está tecnología permite a los usuarios crear, editar, borrar o modificar el contenido de una página web, de forma interactiva, fácil y rápida.

Por lo tanto cualquier usuario puede crear, editar, borrar o modificar el contendió de esta enciclopedia libre.

Hecha la aclaración (o copiado de la misma definición), encontrar artículos o esbozos con poca información, o información errónea, no debe ser noticia.

El punto de partida no es buscar estos errores, sino comprender las políticas oficiales de Wikipedia.
En estas se explica como actuar en este wiki (punto de vista neutral, inclusión de información verificable, cita de fuentes, etc), y un punto muy importante que se aclara: Wikipedia no es una fuente primaria.

Las comparaciones con la Enciclopedia Britannica o el hecho de que un gobierno financie esta enciclopedia libre, para algunos demuestran el poder de la tecnología wiki.