Bunyip

Bunyip information systems – ett företag som tillhandahöll sökmotorn Archie som betald tjänst. Grundades 1992 av Peter Deutsch och Alan Emtage. Verksamheten upphörde 1999. – Namnet: Bunyip är ett mytiskt monster och en småstad i Australien.

[företag] [nerlagt] [sökmotorer] [ändrad 29 maj 2020]

rätt att bli bortglömd

varje persons rätt att få kränkande eller genant information om henne själv avlägsnad från internet. – När förslaget till EU:s Data­skydds­förordning först lades fram i januari 2012 före­slogs att den rätten skulle in­föras. En person skulle alltså kunna be­gära att alla data som lagrats om honom eller henne i ett socialt nät­verk eller hos ett före­tag ska tas bort. – I slutet av 2012 invände EU:s it‑säker­­­­hets­­­organ ENISA att detta är praktiskt ogenomförbart, se här. Men i maj 2014 fastslog trots det EU‑dom­­stolen att Google på be­gäran av privat­­personer måste ta bort från sitt index koppling till oriktig, ovid­kommande eller för­åldrad information om den personen (se Costeja‑domen). Det inne­bär att informationen får finnas kvar på Google, men att den inte får komma upp om man söker på personens namn. Detta kallas på engelska för delisting. Samma information kan däremot fortfarande komma upp vid andra sökningar. – Idén om rätten att bli bortglömd uppstod i Frankrike, och därför används ibland den franska benäm­ningen le droit a l’oubli även på andra språk. – Rätt att bli bortglömd är den term som används i den svenska texten till EU:s Dataskyddsförordning. – På engelska: right to be forgotten (RTBF) eller right to erasure; på svenska också rätt att glömmas, rätt att bli glömd. – Se också reputation bank­ruptcy, social bank­ruptcy, virtuellt självmord och web dead.

[dataskyddsförordningen] [personlig integritet] [personuppgifter] [ändrad 4 oktober 2018]

Google Goggles

en nerlagd tjänst som kunde känna igen och namnge föremål, platser och byggnader som användarna skickade in bilder på. Tjänsten kunde också läsa och tolka streckkoder. Tjänsten startades 2010 av Google och lades ner i slutet av 2018. Den fanns för smarta mobiler. – Google hänvisar till tjänsten Google Lens, se denna länk. – Google Goggles ska inte för­växlas med Google Glass, Googles interaktiva glasögon.

[ljud och bild] [nerlagt] [sökmotorer] [ändrad 22 maj 2019]

Sitemaps

maskinläsbara förteckningar över de webb­adresser på en webb­plats som är till­gäng­liga för sök­motorer. – Site­maps hjälper spindlar att hitta så mycket in­forma­tion som möjligt på webb­platsen. En sitemap är en XML‑fil som räknar upp webb­adress­erna på webb­platsen med informa­tion om när de senast har ändrats, hur ofta de brukar ändras och hur viktiga de anses vara. Site­maps är ett proto­koll för in­formations­utbyte mellan webb­platsen och sökmotor­erna. Syftet är att under­lätta för sök­motor­erna (deras spindlar) att hitta allt på webb­platsen. – Site­maps har fast­ställts i samarbete mellan Google, MSN och Yahoo. – Se sitemaps.org. – Jäm­för med ACAP och Robots exclusion protocol, som är till för att ange vad sök­motor­erna inte ska kartlägga.

[sökmotorer] [webbpublicering] [xml] [ändrad 9 februari 2018]

Wayback machine

ett arkiv med sökbara kopior av miljarder webbsidor. – Syftet är att bevara så många webb­sidor som möjligt i det skick som de hade när de lästes in. Det finns vanligtvis en serie kopior av samma webbsida, kopierade vid olika tider. – Wayback machine drivs ideellt av orga­nisa­tionen Internet archive. I början av 2020 hade den 431 miljarder sparade webbsidor. – Namnet: Anspelar på the Wabac machine, en tids­maskin från den tecknade tv‑serien The Rocky and Bull­winkle show (se Wikipedia) som visades i början av 1960‑talet. – Se archive.org. – Länkar till webbsidor som inte längre finns på sin ursprungliga plats, men som är bevarade på Wayback Machine, är i denna ordlista markerade med ordet Arkiverad.

[arkiv och bibliotek] [sök­motorer] [ändrad 4 maj 2020]

Robots exclusion protocol

instruktioner om att vissa (eller alla) webbadresser på en webb­plats inte ska kart­läggas av sök­­motorer. Kallas ofta för robots.txt efter den textfil som innehåller instruktion­erna, och som sök­motor­ernas spindlar, här kallade robotar,  ska kunna läsa och följa. – Tillämpning av Robots exclusion protocol är frivilligt, och det finns ingen garanti för att alla besök­ande spindlar rättar sig efter instruktion­erna i robots.txt. Pro­to­kollet är inte enbart avsett för sökmotorer, utan även för andra som auto­mat­iskt samlar in in­forma­tion på webb­sidor. – Proto­kollet ger möjlighet att ange att en del sidor får kartläggas, men inte andra. Det kan också speci­fikt ute­stänga vissa spindlar, men släppa in andra, och det kan ange att besöken inte får ske för ofta. Kallas också för Robots exclusion standard. – Läs mer på robotstxt.org. – Se också ACAP och nofollow. – Sitemaps är kom­ple­mentet: in­struk­tioner om vilka sidor som finns att kartlägga.

[sökmotorer] [webbpublicering] [ändrad 9 februari 2020]