Wayback machine

ett arkiv med sökbara kopior av miljarder webbsidor. – Syftet är att bevara så många webbsidor som möjligt i det skick som de hade när de lästes in. Det finns vanligtvis en serie kopior av samma webbsida, kopierade vid olika tider. – Wayback machine, som grundades 2001, drivs ideellt av organisationen Internet archive. I början av 2020 hade den 431 miljarder sparade webbsidor. – Namnet: Anspelar på the Wabac machine, en tidsmaskin från den tecknade tv‑serien The Rocky and Bullwinkle show (se Wikipedia) som visades i början av 1960‑talet. – Se archive.org. – Länkar till webbsidor som inte längre finns på sin ursprungliga plats, men som är bevarade på Wayback Machine, är i denna ordlista markerade med ordet Arkiverad. – Läs också om Wayforward machine.

[arkiv och bibliotek] [sök­motorer] [ändrad 10 oktober 2021]

Sitemaps

maskinläsbara förteckningar över de webb­adresser på en webbplats som är till­gäng­liga för sök­motorer. – Sitemaps hjälper spindlar att hitta så mycket information som möjligt på webbplatsen. En sitemap är en XML‑fil som räknar upp webbadresserna på webbplatsen med information om när de senast har ändrats, hur ofta de brukar ändras och hur viktiga de anses vara. Site­maps är ett protokoll för informationsutbyte mellan webbplatsen och sökmotorerna. Syftet är att under­lätta för sökmotorerna (deras spindlar) att hitta allt på webbplatsen. – Sitemaps har fast­ställts i samarbete mellan Google, MSN och Yahoo. – Se sitemaps.org. – Jämför med ACAP och Robots exclusion protocol, som är till för att ange vad sökmotorerna inte ska kartlägga.

[sökmotorer] [webbpublicering] [xml] [ändrad 9 februari 2018]

Robots exclusion protocol

instruktioner om att vissa (eller alla) webbadresser på en webbplats inte ska kart­läggas av sök­­motorer. – Robots exclusion protocol kallas ofta för robots.txt efter den textfil som innehåller instruktionerna, och som sökmotorernas spindlar, här kallade robotar, ska kunna läsa och följa. – Tillämpning av Robots exclusion protocol är frivilligt, och det finns ingen garanti för att alla besökande spindlar rättar sig efter instruktion­erna i robots.txt. Protokollet är inte enbart avsett för sökmotorer, utan även för andra som automatiskt samlar in information på webbsidor. – Protokollet ger möjlighet att ange att en del sidor får kartläggas, men inte andra. Det kan också specifikt utestänga vissa spindlar, men släppa in andra, och det kan ange att besöken inte får ske för ofta. Kallas också för Robots exclusion standard. – Läs mer på robotstxt.org. – Se också ACAP och nofollow. – Sitemaps är komplementet: instruktioner om vilka sidor som finns att kartlägga.

[sökmotorer] [webbpublicering] [ändrad 9 februari 2020]

router

nätverksenhet som hittar en rutt för meddelanden (egentligen delar av meddelanden, paket) från sändare till mottagare på internet eller i ett lokalt nätverk. – Ett paket passerar oftast flera routrar innan det kommer fram. Routerns uppgift är att läsa adress­informationen på varje inkommande paket, fastställa ett vägval till slutdestinationen samt att skicka iväg paketet till nästa router på vägen. (En router arbetar i nätverkslagret i OSI‑modellen – jämför med en switch.) Routern har tillgång till dirigeringstabeller (routingtabeller) med vägval till mottagare, och ofta också information om nätverkets tillstånd (tillfälliga problem). – En statisk router har bara en routingtabell för ett begränsat antal förinställda mottagare, men en dynamisk router kan fråga andra nätverk var en viss mot­tag­are finns (se DNS). – En router kan också anpassa datakommunikationen till olika protokoll, en funktion som ibland sköts separat av en brygga (bridge). Kombinationen av brygga och router kallas ibland för brouter. En router som ansluter ett lokalt nät till internet kallas för edge router (gränsrouter). Om routern sköter trafiken inuti ett lokalt nät är det en core router (kärnrouter). – Böjning: en router, flera routrar. – Uttal: Router uttalas ”rauter” på amerikansk engelska. På brittisk engelska säger man ”rauter” eller ”rooter”. – Det finns ingen svensk term för router.

[nätverk] [ändrad 30 juni 2018]

Evergrow

ett avslutat projekt för utveckling av internet, finansierat av EU, påbörjat 2004 avslutat 2007. Evergrowprojektet skulle mäta och kartlägga internet och utveckla tekniker för att göra internet snabbt, säkert och utbyggbart med sikte på år 2025. De nya teknikerna skulle införas som ett extra skikt ovanpå det existerande nätet. Projektets webbplats, evergrow.org är nerlagd, men se EU:s webbsidor. – Jämför med PlanetLab.

[avslutat] [forskning] [internet] [ändrad 17 april 2018]

PlanetLab

ett avvecklat forskningsprojekt som kopplade samman datorer från hela världen i en gemensam platt­form för experiment och undersökningar. Det inleddes 2002 och lades ner i mars 2020. – PlanetLab var ett så kallat överlägg på internet: det använde inter­net för dataöverföring, men det dolde det för användarna. Deltagarnas pro­gram exekverades på datorer i flera olika världsdelar, men det skedde skarvlöst. – Privatpersoner kunde inte ansluta sig till Planet­Lab: det var bara öppet för insti­tu­tioner. Det användes för att testa nätverksbaserad teknik och distribuerade system och för mätningar. Bland annat var Googles Measure­ment lab baserat på PlanetLab. – Varje deltagande projekt hade tillgång till en slice (skiva) av PlanetLab. En slice hade tillgång till datorkapacitet på ett antal servrar som var anslutna till PlanetLab. Vilka servrar det var bestämdes genom överenskommelser mellan projektet och värdarna. (Det var alltså inte alls likt molnet.) Den del av en slice som fanns på en bestämd server kallades för sliver (flisa, flaga). Varje sliver hade tillgång till en på för­hand be­stämd kapacitet hos värden. – Användarna hanterade sin slice av PlanetLab genom ett Unix‑gränssnitt, närmare bestämt Linux. – Se planetlab.cs.princeton…. – Jämför med resilient over­lay networks och Evergrow† (av­vecklat).

[avslutat] [forskning] [internet] [ändrad 10 december 2020]