Historia de buscadores
dogpile
Un metabuscador (o agregador de búsquedas) es una herramienta de recuperación de información en línea que utiliza los datos de un motor de búsqueda de la web para producir sus propios resultados[1][2] Los metabuscadores toman la información de un usuario y consultan inmediatamente los motores de búsqueda[3] para obtener resultados. Se recogen los datos suficientes, se clasifican y se presentan a los usuarios.
Algunos ejemplos de metabuscadores son Skyscanner y Kayak.com, que agregan resultados de búsqueda de agencias de viajes y sitios web de proveedores en línea, y Excite, que agrega resultados de motores de búsqueda de Internet.
El primero en incorporar la idea de la metabúsqueda fue Daniel Dreilinger, de la Universidad Estatal de Colorado. Desarrolló SearchSavvy, que permitía a los usuarios buscar hasta en 20 motores de búsqueda y directorios diferentes a la vez. Aunque era rápido, el motor de búsqueda se limitaba a búsquedas sencillas y, por tanto, no era fiable. El estudiante de la Universidad de Washington Eric Selberg lanzó una versión más “actualizada” llamada MetaCrawler. Este motor de búsqueda mejoraba la precisión de SearchSavvy añadiendo su propia sintaxis de búsqueda entre bastidores, y haciendo coincidir la sintaxis con la de los motores de búsqueda que sondeaba. Metacrawler redujo la cantidad de motores de búsqueda consultados a 6, pero aunque produjo resultados más precisos, todavía no se consideraba tan preciso como buscar una consulta en un motor individual[6].
ecosia
Este artículo necesita citas más completas para su verificación. Por favor, ayude a mejorar este artículo añadiendo la información de citación que falta para que las fuentes sean claramente identificables. Las citas deben incluir el título, la publicación, el autor, la fecha y (para el material paginado) el número de página(s). Hay varias plantillas disponibles para ayudar a dar formato. El material con fuentes inadecuadas puede ser cuestionado y eliminado. (Julio 2021) (Aprende cómo y cuándo eliminar este mensaje de la plantilla)
Un motor de búsqueda es un sistema de software diseñado para realizar búsquedas en la web. Buscan en la World Wide Web de forma sistemática una información concreta especificada en una consulta textual de búsqueda en la web. Los resultados de la búsqueda se presentan generalmente en una línea de resultados, a menudo denominados páginas de resultados del motor de búsqueda (SERP). La información puede ser una mezcla de enlaces a páginas web, imágenes, vídeos, infografías, artículos, documentos de investigación y otros tipos de archivos. Algunos motores de búsqueda también extraen datos disponibles en bases de datos o directorios abiertos. A diferencia de los directorios web, que son mantenidos únicamente por editores humanos, los motores de búsqueda también mantienen la información en tiempo real mediante la ejecución de un algoritmo en un rastreador web. El contenido de Internet que no puede ser buscado por un motor de búsqueda web se describe generalmente como la web profunda.
motor de búsqueda archie
Esta página ofrece una cronología completa de los motores de búsqueda en la web, empezando por el motor de búsqueda Archie en 1990. Es complementaria a la página de la historia de los buscadores web, que ofrece más detalles cualitativos sobre la historia.
El motor de búsqueda Archie, creado por Alan Emtage [4][5][6][7], estudiante de informática de la Universidad McGill de Montreal, entra en funcionamiento. El programa descarga los listados de directorios de todos los archivos ubicados en sitios públicos anónimos FTP (File Transfer Protocol), crea una base de datos de búsqueda con una gran cantidad de nombres de archivos; sin embargo, Archie no indexa el contenido de estos sitios, ya que la cantidad de datos es tan limitada que puede buscarse fácilmente de forma manual[8][9][10][11].
El auge de Gopher (creado en 1991 por Mark McCahill en la Universidad de Minnesota) da lugar a dos nuevos programas de búsqueda, Veronica y Jughead. Al igual que Archie, buscan los nombres de los archivos y los títulos almacenados en los sistemas de índice Gopher. Veronica (Very Easy Rodent-Oriented Net-wide Index to Computerized Archives) proporciona una búsqueda por palabras clave de la mayoría de los títulos de los menús Gopher en todo el listado Gopher. Jughead (Jonzy’s Universal Gopher Hierarchy Excavation And Display) es una herramienta para obtener información de menús de servidores Gopher específicos. Aunque el nombre del buscador “Archie” no era una referencia a la serie de cómics Archie, “Verónica” y “Jughead” son personajes de la serie, por lo que hacen referencia a su predecesor[10].
La optimización de motores de búsqueda (SEO) es el proceso de mejorar la calidad y la cantidad del tráfico de un sitio web o de una página web desde los motores de búsqueda[1]. El SEO se dirige al tráfico no pagado (conocido como resultados “naturales” u “orgánicos”) más que al tráfico directo o al tráfico pagado. El tráfico no pagado puede provenir de diferentes tipos de búsquedas, como la búsqueda de imágenes, la búsqueda de vídeos, la búsqueda académica,[2] la búsqueda de noticias y los motores de búsqueda verticales específicos del sector.
Como estrategia de marketing en Internet, el SEO tiene en cuenta el funcionamiento de los motores de búsqueda, los algoritmos programados por ordenador que dictan el comportamiento de los motores de búsqueda, lo que la gente busca, los términos de búsqueda reales o las palabras clave que se escriben en los motores de búsqueda y los motores de búsqueda preferidos por su público objetivo. El SEO se lleva a cabo porque un sitio web recibirá más visitantes de un motor de búsqueda cuando los sitios web se clasifican más alto en la página de resultados del motor de búsqueda (SERP). Estos visitantes pueden convertirse en clientes[3].
Los webmasters y los proveedores de contenidos empezaron a optimizar los sitios web para los motores de búsqueda a mediados de la década de 1990, cuando los primeros motores de búsqueda estaban catalogando la Web primitiva. Al principio, todos los webmasters sólo tenían que enviar la dirección de una página, o URL, a los distintos motores, que enviaban un rastreador web para que rastreara esa página, extrajera de ella los enlaces a otras páginas y devolviera la información encontrada en la página para que fuera indexada[4] El proceso implica que una araña del motor de búsqueda descargue una página y la almacene en el propio servidor del motor de búsqueda. Un segundo programa, conocido como indexador, extrae información sobre la página, como las palabras que contiene, dónde están situadas y el peso de determinadas palabras, así como todos los enlaces que contiene la página. Toda esta información se coloca en un programador para su rastreo en una fecha posterior.