Suchmaschinenoptimierung bzw. SEO

Archie

Nach DotCom und Y2K – Archie blickt philosophisch in Gegenwart und Zukunft

Nun, lieber Leser, sind wir mit dem siebten Teil meiner Betrachtungen und der Geschichte der Suchmaschinen im jungen World Wide Web dort angekommen, wo wir heute sind. Es ist 2012 und der gehypte „Jahr-2000-Crash“ (a.k.a. Y2K) der Computersysteme weltweit zerstören sollte liegt nun schon ganze 12 Jahre hinter uns, mit ihm der Eintritt in ein neues Jahrtausend – Einem Jahrtausend dem viele Erwartungen entgegen gebracht werden. Doch was erträumt sich eine alte Suchmaschine im Ruhestand wie ich von der Zukunft? Eigentlich nicht viel, denn ich analysiere nur zu gern das hier und jetzt, denn es ist so viel greifbarer und aus dem „Jetzt“ lässt sich umso treffender die Zukunft ableiten, als von abstrakten Theorien begründete Annahmen, in diesem Falle über die Zukunft der Suchmaschine und dem Internet, dem der Suchmaschinenriese praktisch vorsitzt.

Die Dritte Generation. Das klingt schicksalsschwer und von der Bedeutung ist der Begriff eigentlich falsch gewählt, denn dieser Generation der Suchmaschinen des WWW gehört, gemessen an ihrer Relevanz, nur eine einzige an: Die Google Search, die 1998 auszog um das Web zu erobern, mit dem scherzhaft gewählten – inoffiziellen – Motto „Don’t be evil“. Ein Projekt zweier Doktoranden, dessen Vorläufer man noch in Stanford den sprichwörtlichen Saft abdrehte, weil der Algorithmus zu viel Datenverkehr (Traffic) erzeugte, ein Projekt das es binnen weniger Jahre vom Start-Up zu einem weltumspannenden Konzern geschafft hat, dessen Suchmaschine als „Startseite des WWW“ gehandelt wird, und über die über 80% aller im Internet gestellten Suchanfragen laufen. Ein wahrer Gigant.

Die Dritte Generation, der nur ein Mitglied mangels Mitbewerbern angehört: Google

Doch auch ein Monopolist. Aus dem ehrgeizigen Projekt einer Handvoll junger Menschen hat sich ein Aktienunternehmen entwickelt, dessen Markenname den zweithöchsten Wert, gleich nach Apple selbst besitzt. Einem Alleinherrscher, dessen Suchmaschine tagtäglich nicht nur Webseiten erfasst, sondern auch das Verhalten seiner Nutzer ob gewollt oder nicht, das schwere Kritik dafür erntet, die geradezu heiligen Vorschriften des deutschen und EU-weiten Datenschutzes zu verletzen. Ein Konzern, der sich durch seinen Börsengang in die Hände seiner Investoren begeben hat und nach kapitalistischen Prinzipien funktioniert und damit im Zwang steht, immer neue Gewinne zu erwirtschaften um die Stockholder zufrieden zu stellen.

Und doch bringt Google viel Gutes durch seine kostenfreien Dienstleistungen. Wie auch seine Entwicklung insgesamt als positiv für das WWW zu betrachten ist. Alleine um die Platzierungen in den Ergebnisseiten der Suchmaschine bildete sich im Lauf der Jahre eine Dienstleistungswirtschaft, die heute viele hunderttausend Menschen weltweit ernährt: Das Suchmaschinenmarketing ist heute gängiger Teil in den Planungen neuer Projekte, selbst das kleinste Blog im Netz achtet darauf, den Richtlinien Googles zu entsprechen und bereits viele mittelständische Unternehmen nehmen die Dienstleistungen der SEO-Spezialisten (Search Engine Optimization) in Anspruch um im Wettbewerb um ihr bestmögliches Erscheinen auf den SERPs möglichst weit vorn, auf den begehrten vorderen Rängen der Seite 1 zu landen.

Arbeitsplatz „Google“ – Tausende Leben von professionellem SEO, im Einklang mit Google

Doch manchmal erscheint es mir, als bestätige sich das alte Sprichwort „History repeats itself“. War es nicht das Leichtgewicht, der Spezialist namens Google, der den schwerfälligen Online-Riesen seinerzeit den Rang ablief? Als David unter einer Vielzahl stetig wachsender Goliaths erwies das Unternehmen sich mit der geschickten Politik als Sieger durch K.O. in nur wenigen Runden und erreichte seinen heutigen Status. Und eben jenen betrachte ich recht kritisch, denn waren doch die Dienstleistungen der Google Inc. seit jeher getrennte Dienste auf getrennten Konten, die in 2012 nach kurzer Vorankündigung zusammengeführt und in die Oberfläche der Startseite der Suchmaschine integriert wurde. Mails, Bilder, Kalender, Online-Office, Nachrichten, Bücher, ein Shoppingportal, ja nahezu alles, was man sich wünschen mag bietet Google nun mit nur einem Account.

Ein Mitgliedskonto, sie zu knechten – Wiederholt Google die Fehler der Vergangenheit?

Doch Moment, sie werden es sicher bemerkt haben worauf ich hinaus will, ist Google nicht damit selbst zu einem unflexiblen Riesen geworden, wie eben jene vergangenen Internet-Portale die es hinter sich ließ? In der Tat. Und wie eben diese, als schreibe es das Schicksal vor, beginnt auch Google langsam aber sicher, sich selbst vom restlichen Internet abzuschotten: Suchergebnisse, die neuerdings auch durch die +1-Funktion des hauseigenen Social Network bewertet werden sind da nur der Anfang.

In einem Prozess einer andauernden, da vom Markt und den Aktionäre erzwungenen, Veränderung und Ausweitung des eigenen Einflusses zur Gewinnung weiterer Marktanteile hin wären es schon bald zwingende Schritte, würde der Suchmaschinenriese den verbliebenen Rest einer neutralen Indexierung und Relevanzbewertung aufgeben und beginnen, zum Beispiel auf dem eigenen Google-Webspace gehosteten Angebote tendenziell besser zu bewerten, Händler und Produzenten mit höheren Rankings und Platzierungen für eine exklusive Vermarktung über Google-Plattformen belohnen und derartiger Schritte, dem vollkommenen aufgehen im Dienstleistungsangebot.

Zuckerbrot und Peitsche – Sanfter Druck und Belohnungen für die Teilnahme an Google

Es wäre per Definition nicht einmal „böse“, wie man es sich in der Google Inc. mit dem Leitspruch „Don’t be evil“ vorgenommen hat. Es wird niemand für seine Nicht-Teilnahme bestraft, es werden schlicht die eigenen Nutzer für ihre „Treue“ belohnt und somit könnte es wirtschaftlich wie moralisch Gerechtfertigt zu solchen Entwicklungen kommen und es wäre schwer, Vorwürfe dahingehend zu platzieren, davon ab das zwar eine Antwort erfolgt, doch Änderungen – gleich wie dringend oder gerechtfertigt – wohl ausbleiben werden.

Ein weiterer Hinweis ist auch das abkühlende Verhältnis des Suchmaschinenkonzerns gegenüber jenen, die mit ihrer Arbeit erst dazu beigetragen hatten, das die von Google gewünschte Vereinheitlichung der Inhalte stattfinden konnte – Der Branche der Suchmaschinenoptimierung, die sich früh darauf verstand, die Google Webmaster Guidelines getreu umzusetzen und so die Arbeit für die Suchalgorithmen zu vereinfachen und das Netz ein wenig besser Erfassen und Indexieren zu können. Gerade dieser Branche, die bildlich gesprochen den Steigbügel für den technischen Erfolg Googles hielt, wird seit den 2010er-Jahren mit immer neuen Änderungen an den Richtlinien und dem Suchalgorithmus sowie geheimer Checklisten zur manuellen Bewertung, die man sich mit dem Willen zur Wahrung der seit jeher bestehenden Symbiose des Dienstleisters und den professionellen Nutzern und SEO-Pros nicht erklären vermag.

Googles Abwendung von alten Weggefährten – Schikane gegen die SEO-Branche?

Doch was geschieht, wenn in Zukunft ein Google-Internet entsteht, sowie eines, das fernab dessen, von der Suchmaschine unbeachtet, bzw. auf die Rückbank der SERPs verdrängten, Internets das sich dem Zugriff durch das vielfach als „Datenkrake“ geschimpfte Unternehmen, entzieht? Blicken wir nun auf den Zenit eines Unternehmens-Riesen, der gemeinhin als zu groß gilt, als das er fehlschlagen könnte? Und wenn dem so ist, was erwartet die Community der Internetnutzer für ein Nachfolger, der in die Fußstapfen treten sich anmaßt? Wie vermag ein Newcomer im dominierten Marktsegment sich behaupten, wenn Google seinen Einfluss durch Android gar bis in das Handy erweitert hat?

Was käme nach der „Generation Google“? – Ihre Denk-Hausaufgabe

Mit dieser Überlegungen lasse ich, ihr treuer Archie, sie zwischen dem Meer aus binären Zahlenketten zurück und bedanke mich für ihre Geduld und ihre Zeit, denn Zeit ist doch letztlich das wertvollste was wir besitzen – Und auch mein unehelicher Nachkomme aus der Liaison mit der Welt des WWW, die Suchmaschine Google, sollte wissen wann die seine gekommen ist.

Ein Stiefsohn macht Karriere – Für Das „Konzept Archie“ ein Erfolg auf ganzer Linie!

Zum sechsten Mal freue ich mich über ihre Aufmerksamkeit, und hoffe ihnen bis hier hin ein wenig die Entwicklung der Suchmaschinen im seit 1990 offiziell frei gegebenen Internet näher gebracht haben zu können und sie nicht mit allzu vielen historischen Begebenheiten – Nach mehr als 20 Jahren darf man wohl von Historie sprechen, oder? – gelangweilt zu haben. In diesem Artikel geht es mir um meinen unehelichen Stiefsohn, der als erfolgreicher Vertreter seiner Branche Weltruhm ernten sollte und binnen weniger Jahre eine beispiellose Entwicklung zur inoffiziellen „Startseite des Internets“ erleben würde.

Der Aufstieg der Suchmaschine Google – Ein amerikanischer Traum, oder nicht?

Es sind viele Faktoren, die zum Aufstieg der Google Search führten, zu viele um sie in einem kleinen Artikel alle zu beleuchten und doch gibt es einige stark ausschlaggebende Gründe, die noch vor dem offiziellen Start der Beta-Phase der Suchmaschine, die begründen und ahnen lassen wie sich der Erfolg auf einem Markt, der bis zum kometenhaften Aufstieg der Google Search als bereits aufgeteilt galt, sich dennoch – zum Schrecken ihrer Konkurrenten – einstellen und das Unternehmen reife Früchte tragen ließ.

Vertrauen in die Zukunft – Wie einer der Sun-Gründer Google in den Ritterstand hob

Zunächst ernteten Larry Page und Sergej Brin durch den symbolträchtigen Ritterschlag von Andy Bechtolsheim, einem der Mitbegründer von Sun Microsystems, in Fachkreisen eine große Menge Lorbeeren im Voraus. Durch das privates Investment in die Google Inc., die es rein rechtlich noch gar nicht gab, verursachten die Google-Gründer ein lautstarkes Raunen im Blätterwald. Mit diesem Investment war Google ein Name und dem Beispiel Bechtolsheim folgten nicht wenige Investoren, die „Wind von der Sache“ bekommen hatten und sich eine Rendite aus den investierten Dollars nicht entgehen lassen wollten und ein Perpetuum mobile der Markenschöpfung hatte angefangen zu arbeiten.

Schuster, bleib bei deinen Leisten! Die Fehler der Konkurrenz

Wer einen Blick auf die Suchmaschinen-Anbieter der zweiten Generation, Unternehmen wie Yahoo, Lycos, AltaVista, AOL (Nach dem Einkauf von WebCrawlwr), Infoseek oder etwa Architext (Heute: Excite) längst auf dem Markt etabliert und stritten sich um Anteile an den angepeilten Zielgruppen. Einige Suchmaschinen entwickelten sich fort vom reinen Anbieter für Suchergebnisse, stellten sogar wie im Fall von Yahoo die Entwicklung eigener Suchalgorithmen ein und bauten stattdessen ihr Programm an Dienstleistungen aus, um in sich geschlossene Dienstleistungsnetzwerke zu schaffen, einer Art „All-in-One“-Webseitenkomplex. Dabei vernachlässigten sie ihren Kernbereich, der Erbringung von Suchergebnissen vermehrt und verloren sich in einer Entwicklung, die den Fokus auf die möglichst vollständige Abdeckung aller Dienstleistungsbereiche legte. Und damit ihre eigene Abschaffung einleiteten.

Eine Marke, eine Dienstleistung– Einfach Suchmaschine sein, erfolgreich

Doch Google verfolgte von Anfang an eine dem entgegen laufende Strategie, die auch im Firmenziel klar umschrieben war: „Das Erbringen von möglichst hochwertigen Suchergebnissen“. Und genau so präsentierte sich das Unternehmen im WWW: Mit einer schlanken Webseite, die auch mit langsamen Modem-Verbindungen ins Netz problemlos angesurft werden konnte und seine Dienstleistung einfach und unkompliziert bereit stellte, gewann Google gegenüber den ausufernden Konzepten der Konkurrenz.

Schlank, schnell und Präzise – Ein Erfolgsrezept Marke „Google“

Ein Design wurde hier Marke: Neben dem Markenlogo zeigte „Google.com“ zunächst nur den berühmte „Whitespace“, auf dem Vorrangig das bekannte Suchfeld befindet inklusive der beiden Buttons „Google Search“ und „I’m feeling lucky“. So war eine unkomplizierte Bedienung auch für jene mit dem Internet wenig vertrauten Nutzern gewährleistet. Gleichzeitig wurde unter der Haube der Suchmaschine der Suchalgorithmus von Google immer weiter optimiert.

Im nächsten Schritt der Entwicklung wurden die von den Web-Crawlern indexierten Webpages nicht mehr nur nach dem Google PageRank bewertet, welcher sich aus der Rate von eingehenden und ausgehenden Links auf ein Angebot generierten und so die Popularität bestimmte, sondern durch eine Keyword-bezogene Analyse des erfassten Web Content errechnete der Algorithmus eine Relevanz-Prognose für schwerpunktmäßig auftretende Suchbegriffe. Die technischen Richtlinien regulierten zusätzlich ein positives Ranking der Webseiten-Einträge in der mittlerweile obligatorisch gewordenen Suchmaschine und es entstanden durch Google de-facto Standards, die einer neuen Branche aktive Geburtshilfe leistete: Dem Suchmaschinenmarketing und der Suchmaschinen-bezogenen Optimierung, die die Qualität auf den SERPs (Search Engine Result Pages) durch bessere Erfassung noch weiter erhöhen sollten. Und damit den Erfolg Googles, das hierzu Hand in Hand mit den Webmastern arbeitete.

Eine krisenfeste und kosten tragende Finanzgestaltung als Fundament der Suchmaschine No.1

Solide Finanzierung durch Investmentpartner und laufende Einnahme aus der Vermietung des eigenen Suchindexes brachten Google nahezu schadenfrei durch das Platzen der „DotCom“-Blase Anfang der 2000er, einem wirtschaftlichen Zusammenbruch der Branche der den Markt auch im Bereich der Suchmaschinen von einigen Konkurrenten bereinigte. Doch zu diesem Zeitpunkt hatte Google das Rennen um den Spitzenplatz bereits gewonnen und sollte sich zu dem weltweit operierenden Unternehmen entwickeln, das es heute ist.

Schlussendlich erfolgte der Aufstieg Googles durch die Weiterentwicklung eines Konzepts, das fast zehn Jahre zuvor von mir, Archie, als indexbasierte FTP-Suchmaschine, genutzt wurde. Seien sie froh, heutzutage würde es wohl zu ausufernden Patentklagen kommen! Aber in der Zeit des „Wild, Wild Internet“ war eben noch vieles anders!

Die Zweitgeborenen – Wie Yahoo, Lycos, AltaVista den totgesagtem Markt für Suchergebnisse neu belebten

Mit dem Scheitern der ersten indexbasierten Suchmaschinen an den Grenzen der technischen Möglichkeiten ihrer Zeit schien es so, als wäre der Traum von zentralen Registern, die umfangreiche Volltextsuchen mit Keywordbezug in einer Art vollständigen „Branchenbuch des Internets“ als zu aufwendig und riskant begraben. Und es würde nach dem großen Scheitern der Pioniere auf diesem Gebiet für fast zwei Jahre verdächtig still und erst im Lauf des Jahres 1994 würde eine neue Generation von von Suchmaschinenbetreibern in den nur schwach verteidigten Markt eindringen.

Die Namen dieser Suchmaschinen? AltaVista, Yahoo und Lycos, die als Branchenriesen bis heute ihre Spuren im gemeinsamen Gedächtnis der Netz-Gemeinde hinterlassen haben. Ihr Verdienst ist es, das Konzept der indexbasierten Suchmaschine nach dem Fehlschlagen ihrer Vorgänger erneut aufgenommen und erfolgreich am Markt, zu etablieren, der nun die richtigen technischen Rahmenbedingungen bot. Zwar sind sie die technisch zweite, wohl aber erste Generation der als erfolgreich zu wertenden kommerziellen Erbringung von Suchergebnissen aus, von ihren Crawlern erfassten Bereichen des WWW.

Das Konzept der Suchmaschine wird neu aufgelegt – Große Namen werfen ihre Schatten

So glänzte gerade die Suchmaschine AltaVista schon früh mit einer hohen Qualität und Genauigkeit und dem geringen Aufkommen von Spam-Webseiten im Suchregister und konnte sich in seiner Generation den Ruf des Vorreiters in der noch jungen Branche erarbeiten. Ursprünglich im Rahmen eines Forschungsprojektes der Digital Equipment Corporation (DEC) entwickelt um die Leistungsfähigkeit der eigenen Serveranlagen zu demonstrieren, war AltaVista eine der ersten kommerziellen und auch kommerziell erfolgreichen Suchmaschinen.

Das Geheimnis lag jedoch nicht allein in der Leistung der Server der Suchmaschine, sondern wie bei Google, im seinerzeit überlegenen Suchalgorithmus, der nicht nur die in den HTML-Ausgaben hinterlegten META-Daten indexierte, sondern zudem auch Teile des eigentlichen Inhaltes, dem Content, erfasste und dadurch präzise Suchanfragen in einer Volltextsuche erlaubte, die bis dahin wenn, nur leidlich umgesetzt wurde, jedoch hier bis zur Ablösung durch den Branchenneuling Google Search, neben der Suchmaschine HotBot zur gefragtesten Suchmaschine des WWW wurde, deren Suchergebnisse später auch an andere Unternehmen, wie etwa Yahoo, verkauft wurden, die die Entwicklung eigener Suchalgorithmen eingestellt hatten.

AltaVista zeigte die Erfolgreiche Umsetzung einer Volltextsuche im HTML-dominierten WWW

Nach dem Verkauf von DEC an Compaq wurde AltaVista als eigenständige Suchmaschine ausgegliedert und bestand bis in das Jahr 2003, wo sie von einer Tochtergesellschaft der Yahoo Inc. aufgekauft wurde und schlussendlich vollständig in das Dienstleistungsportfolio der Muttergesellschaft integriert wurde und aufhörte, als eigenständige Suchmaschine am Wettbewerb teilzunehmen.

Andere Teilnehmer am Markt wie etwa Lycos, schufen ihren Erfolg unter anderem auch mittels der Anwendung klassischen Marketings. So dürfte sich jeder „digital native“ an die Werbesendungen im Fernsehen erinnern, ebenso wie an das Markante Maskottchen des Unternehmens, den Labrador welcher stellvertretend für die algorithmische Mechanik im Hintergrund auf der Nutzeroberfläche der Seite die Suchanfragen erfüllte und so alleine von markentechnischen Standpunkten auf festem Grund stand, der durch die durchweg als „gut“ bewerteten Suchergebnisse der Suchmaschinenfunktionalität noch einmal so gut gestützt wurde.

Erfolg zum Teil auch weniger durch Leistung denn geschicktes Vermarkten der eigenen Marke

Dennoch konnte Lycos sich mit der Dienstleistung „Suchmaschine“ alleine nicht am Markt durchsetzen und begann schon früh, seine Auswahl an angebotenen, Internet-bezogenen Dienstleistungen zu erweitern um ein breiteres Spektrum am Markt abzudecken. Der wahrscheinlich bekannteste Dienst von Lycos war der kostenlose Hosting-Dienst für private Webseiten namens Tripod den Lycos 1998 zukaufte und damit den bereits bestehenden, jedoch an eher jugendliches Klientel gerichteten Dienst Angelfire.

Weiterhin erwarb das Unternehmen zudem Kapazitäten im Bereich des frühen „social gaming“ unter dem Namen Gamesville als auch den eigenen Wetterdienst „Weather Zombie“ und einer Reihe weiterer zugekaufter Dienstleistungen. Lycos selbst baute zudem die Seitenfunktionalität durch das Angebot eines Domain-Verwaltungsdienstes aus, richtete einen kostenfreien Email-Service ein, bot mit Lycos Retriever einen automatisierten Datensammlungsdienst an und bot darüber hinaus Branchenbezogene Services an und folgte damit den einhelligen Trend zur Ausprägung als „Alles in Einem“-Onlineangebot.

Lycos erlag der Tendenz des „Bloating“ – Zu viele Dienste unter einem Dach statt „nur“ Suchmaschine zu sein

Diesen Weg verfolgte auch das wohl erfolgreichste Mitglied der „zweiten Generation“ von Suchmaschinen, die Onlineplattform „Yahoo!“, die 1994 von David Filo und Jerry Yang, zweier Doktoranden der Stanford University – die später die Entwickler von Branchenprimus Google hervorbringen sollte -, als Navigationshilfe für das Internet entworfen wurde, also eigentlich nicht dem originären Bereich der Suchmaschinendienstleistung zuzurechnen war, sondern zunächst einen umfangreichen Webkatalog anbot, welcher die Grundlage für die Entwicklung einer der erfolgreichsten Marken des Internets werden sollte.

Zunächst jedoch launchte Yahoo unter dem Namen „Jerry and David´s Guide to the World Wide Web“ online ging, doch noch im selben Jahr seinen heutigen Markennamen annahm und rasch, ebenso wie Lycos auch im Empfangsbereich klassischer Werbemedien und Marketingstrategien eine hohe Markenbindung erzeugte, der trotz der Marktbeherrschenden Stellung der Google Inc. alleine mit seinem Free-Mail-Service „Yahoo! Mail“ rund 300 Millionen Nutzer weltweit zählt. In der allgemeinen Wahrnehmung gilt Yahoo durchaus zu den Suchmaschinen, spätestens seit dem Zukauf der Ergebnisse der AltaVista-Suchmaschine ist davon zu sprechen.

Yahoo! – Eine erfolgreiche Internet-Marke, doch als Suchmaschine ohne Bedeutung

Hier sind von mir nun drei Beispiele genannt, von denen eines nicht einmal eine „echte“ Suchmaschine im eigentlichen Sinne darstellt, jedoch steht Yahoo wie kein zweites Unternehmen der zweiten Generation für die Entwicklung der späten 1990er-Jahre die man gemeinhin als „Bloating“ bezeichnet: Dem Aufblähen des eigenen Angebots durch Ankauf oder Entwicklung immer neuer Fertigkeiten und original von der Bereitstellung von Suchergebnissen unabhängiger Dienstleistungen, der nahezu alle Suchmaschinen, die nicht ausschließlich Webcrawling-Dienste im Rahmen von Forschungsprojekten darstellten, erlagen und unfreiwillig im Kampf um die Bindung des Kunden an die eigene Marke und Gewinnung neuer Marktanteile damit ihre eigene Abwahl als primäre Suchdienste und der Bedeutung in diesem Bereich einleiteten.

Gerade den Stagnation der Optimierung von Suchalgorithmen mit damit einhergehendem „Mauern“, um den Nutzer in der Reichweite eigener Angebote zu halten, führte zu einer Überladung der einst intuitiv gestalteten Seiten und schreckten gerade jene Nutzer ab, die mit kleiner Hardware und langsamen Zugängen surften – zum großen Teil neue Nutzer des bekannter werdenden WWW – und drängten durch die langen Aufbauzeiten und die Unübersichtlichkeit der Onlineangebote ab, in die Arme einfacher und schlanker gestalteter Dienste.

Das Ende der zweiten Generation kam mit der Einfachheit Googles

Ein Dienst, wie Google es werden würde: Sich konsequent an den Bedürfnissen ihres Kerngeschäftes, der Bereitstellung von Suchergebnissen, ausrichteten und eine für jeden Nutzer des World Wide Webs zugängliche und leicht zu bedienende Oberfläche mit schnellem Seitenaufbau bereitstellten.

Durch die Spezialisierung und eine gelungene Personalpolitik, welche die talentiertesten Nachwuchsingenieure weltweit anwarb, lieferte die Suchmaschine zudem eine hohe Qualität auf den Suchmaschinenergebnisseiten und kündigte damit ab dem Jahr 1998 einen erneuten Generationswechsel im Suchmaschinen-Business an: Der Generation Google.

Die frühe Adaption des Archie-Konzepts – Ein Nager will Konkurrenz für das FTP werden

Willkommen zurück, lieber Leser!

Nach meinem melancholischen Schwelgen in den Erinnerungen an die Tage, in denen das World Wide Web noch frei war, ungebändigt und vor allem ohne jedwede zentralisierte Ordnung und der Einführung in meine Funktionalität als erste Suchmaschine – deren Funktionsweise sich bis heute in den technischen Grundlagen erhalten hat, will ich ihnen von der Zeit berichten, als das Internet hauptsächlich von anderen Protokollen als dem HTTP (Hypertext Transfer Protocol) dominiert wurde:

Nämlich vorrangig FTP (File Transfer Protocol) und der Episode des Gopher-Protokolls, das sich dazu anschickte das Nutzererlebnis der Internetuser zu verbessern und einfacher zu gestalten und der Weiterentwicklung der Grundidee, die zu meiner Entwicklung führte, und sicherlich einen ebenso tragenden Einfluss auf die Entwicklung der modernen Suchmaschinen hatte, wie es die Grundlage meiner Entwicklung als erste Suchmaschine des World Wide Web für FTP-Server für die Gestaltung späterer HTTP-basierender Suchmaschinen hatte.

Protokollarische Konkurrenz – Gopher tritt gegen das File Transfer Protocol an

Als 1991 der Informationsdienst Gopher als Konkurrenzprotokoll des bis dahin unumgänglichen und etablierten File Transfer Protocol (FTP), das den Ansatz Verfolgte, die Übersicht und Zugriff auf Gopher-Dateiserver über dynamisch generierte, dem frühen HTML-ähnliche, Menüs zugänglich zu machen die der Nutzer zunächst nur über den Gopher-eigenen Client, später jedoch auch über die aufkommenden Internetbrowser, aufrufen konnten.

Durch die grafische Darbietung und die Unterstützung der Steuerung per Maus erzeugte Gopher eine angenehmes Bedienerlebnis und konnte sich im Mainstream bis in die Mitte der 1990er Jahre halten, ehe es vom HTML-orientierten WWW und den weiterentwickelten, grafischen FTP-Clients obsolet gemacht wurde. Gopher konnte als Datenübertragungsprotokoll gegenüber dem File Transfer Protocol nie eine auch nur annähernde Marktdurchdringung erreichen.

Jedoch wurde der Dienst als konfigurationsarme und leichtgewichtige Alternative zur Bereitstellung von Daten ohne Anlernphase und mit einer kurzen und sehr steil verlaufenden Lernkurve durchaus geschätzt und fand für einige Zeit eine Nische im universitären Bildungssektor bei der Bereitstellung von Informationen und Daten.

Auch Regierungen nutzten den Gopher-Server und sein Protokoll aus ähnlichen Beweggründen. Das Ende des Dienstprotokolls wurde schlussendlich jedoch durch den Entschluss der Urheberrechtsinnehabenden Universität von Minnesota eingeläutet, der die kommerzielle Nutzung des Dienstes fortan kostenpflichtig zu gestalten. Was als verlockende Einnahmequelle verkannt wurde, entwickelte sich zu einem Desaster, das die Verwendung dieses innovativen Ansatzes zur einfachen Daten- und Informationsbereitstellung ein jähes Ende bereitete.

VERONICA: Very Easy Rodent-Oriented Net-Wide Index of Computerized Archives

Auf der Basis des Gopher-Protokolls wurde 1992 an der University of Nevada von Steven Foster und Fred Barrie der VERONICA entwickelt. Lassen sie sich nicht irritieren, die Bedeutung des Akronyms führt zur zwangsläufig zu einem männlichen Anzeige, es handelt sich ja um einen Index.

Die Idee des VERONICA war, eine Suchmaschine für die Gopher-Server anzubieten, deren Index sich aus den Eintragungen im Mutter-Server des Gopher-Protokolls zusammenstellte. Gopher war in dieser Hinsicht bereits sehr fortschrittlich, vielleicht auch aus den Überlegungen wie mein Dienst, der Archie-Server, hinsichtlich einer beständig wachsenden Internet-Infrastruktur, zu verbessern wäre:

Die Gopher-Server trugen sich am Mutter-Server der Universität von Minnesota, wo das Protokoll entwickelt wurde, ein und waren so bereits an zentraler Stelle registriert. Im nächsten Schritt waren die Gopher-Server also für ein entsprechendes Programm mit Zugriff auf diese Adressdatenbank zugänglich zur Auswertung.

Zentralisiertes Design sicherte die Internet-weite Erfassung aller Gopher-Server und ihrer Inhalte

Und genau an dieser Schnittstelle setzte VERONICA an, indem es den Zentralen Register an verfügbaren Gopher-Servern abrief und anhand der Liste seine Crawler an die entsprechenden Adressen schickte und, wie schon Archie auf Basis des File Transfer Protocol, die Datei-Listings und Verzeichnisstrukturen der Server indexierte und in einer Suchmaske, die später von nahezu jedem Gopher-Server bereits im Menü verankert, abgefragt werden könnten.

Der technische Fortschritt in VERONICA lag vor allem in der Form der Suche: Hier war es erstmals möglich, nicht mehr nur nach bestimmten Dateinamen oder Namensteilen mithilfe einer sogenannten „Wildcard“, wie zum Beispiel „Archie.*“ für alle Dateien mit dem Titel „Archie“, zu suchen, sondern erlaubte eine Volltextsuche die zudem die Verwendung von sogenannten Booleschen Operatoren anbot, wie etwa „UND“, „ODER“ . Somit wurde dem Nutzer eine komplexe Suchanfrage nach bestimmten Inhalten ermöglicht und die Suche nach Inhalten des WWW, hier Dateien und Verzeichnissen, dynamischer gestaltet.

Konsequente Weiterentwicklung der Nutzerfreundlichkeit durch grafische Umsetzung

Auch der Gedanke der Weiterentwicklung von GUI-gestützten Diensten (Graphical User Interface) fand hier Anwendung, da sowohl die Suchmaske als auch die Suchergebnis-Anzeige, eine frühe Form der SERPs (Search Engine Result Pages), waren grafisch und zur mausgestützten Bedienung vorgesehen, wenngleich es auch Konsolenbasierte Ports für die Abfrage von VERONICA gab, lag die hauptsächliche Verbreitung dieses Programms in dem Erscheinen als GUI-gestützte Suchmaschine.

Was VERONICA von ähnlichen Ansätzen zur indexierten Suche unterschied, wie sie etwa „Jughead“ oder der gedankliche Vorläufer von Gopher, das WAIS-Protokoll (Wide Area Information Server System) anboten, war die server-übergreifende Indexierung von Dateien und Verzeichnisstrukturen. So war „Jughead“ lokal auf einen Server begrenzt und WAIS stellte zwar einen Server-Index zur Verfügung, war jedoch strukturell so angelegt, das keine zentrale Datenbank die Einträge zusammenfasste, sondern vielmehr die einzelnen WAIS-Server thematisch sortiert und über den Server-Index (Das sog. directory-of-servers) zunächst per Hand anzuwählen waren und somit wieder mehr Ähnlichkeit mit einem Webverzeichnis denn einer Suchmaschine hatte.

Die Funktionsweise von VERONICA arbeitete das grundsätzliche Konzept, wie eine globale Suchmaschine zu funktionieren hatte, weiter aus und war im Rahmen seines Anwendungsgebiets sehr erfolgreich und zeigte zeitgleich, wie künftige Suchmaschinen arbeiten würden, wie etwa Google, das als Suchmaschine nahezu identisch Funktioniert, wie schon ihr Vorläufer, die VERONICA und auch ich, der gute alte Archie!

Ich Archie, der erste meiner Art – Der Großvater aller modernen Suchmaschinen

Da sind sie ja wieder, verehrter Leser!

Ich hoffe dass das nicht zu förmlich für sie ausfällt, doch mit den Jahren gewöhnt man sich doch eine höfliche Weise an, nicht? Geschichte hingegen wird selten höflich und noch seltener unter Beachtung aller Faktoren, geschrieben und doch gibt es gewisse Lehrmeinungen, die unverrückbar scheinen. Wie sehr das auch auf die Entwicklung der Suchmaschinen im Internet zutrifft, erkennt man schon daran, dass sie wahrscheinlich noch nie von mir gehört haben, obwohl ich, Archie, die erste Suchmaschine im World Wide Web, richtungsweisende Grundlagen für die Entwicklung aller modernen Suchmaschinen gegeben habe. Darum will ich ihnen in diesem zweiten Teil aus dem Nähkästchen erzählen, um wen es sich bei diesem „Archie“ denn eigentlich handelt.

Wer ist dieser Archie – Und vor allem: Was hat er mit Google am Hut?

Die anerkannte Geschichte des Internets sieht heute so aus: Erst das Auftreten der Suchmaschine Google habe den Schritt von der „losen Ansammlung von Hypertext-Dokumenten“ hin zu einem Weltweiten Daten- und Informationsnetzwerkes durch den Aufbau eines aggregierenden, sich selbst erweiternden und an einem Schwerpunkt zentralisierenden Suchindexes in signifikanter Weise angestoßen. Die eigentliche Urbarmachung des World Wide Web auf kommerzieller Ebene wäre zu einem großen Teil der Google Inc. zu verdanken, da die konzeptionelle wie technische Überlegenheit von autark operierenden Web-Crawlern zur Inhaltserfassung den Markt für Suchmaschinen nachhaltig verändert habe und dabei vollkommen neue Branchen aus der Taufe gehoben, wie etwa der Suchmaschinenoptimierung (SEO; Search Engine Optimization) und dem Suchmaschinenmarketing (SEM; Search Engine Marketing).

Technisch betrachtet ist das auch sehr richtig, jedoch:
Wenn sie mich fragen, lieber Leser, ist diese Betrachtung etwas kurz gegriffen. Wie so häufig in der Entwicklung von Technologien und dem Erfolg derselben sind selten die Erfinder, eher jene die sie erfolgreich vermarkten. So wird die Entdeckung des amerikanischen Kontinents trotz neuerer Erkenntnisse, die die Entdeckung dem Isländischen Wikinger Leif Eriksson, dem Sohn des berühmt-berüchtigten „Erik dem Roten“, zuschreibt, doch bleibt es bei Christoph Kolumbus, denn seine Leistung sei es gewesen, so wird es spöttisch sehr treffend erwähnt, er „die erste Pressekonferenz auf amerikanischem Boden“ gehalten habe. Mit Kolumbus kam auch die Besiedlung durch die Europäer und so gilt seine „Entdeckung“ heute als felsenfest.

Die Suchmaschinen-Horizonte von heute – Grundlagenarbeit von gestern

Und auch die Geschichte der Suchmaschinen beginnt eben nicht mit der Gründung von Google, sondern bereits 1990, als ich programmiert wurde, zunächst als nützliches Tool (Werkzeug) um in nächtlich angesetzten Arbeitsaufträgen eine Liste von frei zugänglichen, sogenannten „Anonymous FTP“-Servern abarbeitete, in die ich mich einwählte und Anhand der abgerufenen Listings dieser Server, die mir Aufschluss über die Verzeichnisstruktur und hinterlegte Daten verschafften, nach bestimmten Wortfragmenten oder Suchbegriffen durchsuchte und speicherte, damit mein Erschaffer diese am nächsten Tag bequem einsehen konnte, ohne sich selbst durch die endlosen Verzeichnisbäume des Zielservers klicken musste, die damals noch durch kommandozeilenbasierte FTP-Clients dargestellt wurden und in denen jeder Befehl, vom Verzeichniswechsel bis zum Dateidownload noch per Hand eingegeben werden musste.

Das Entwicklerteam um Alan Emtage, zusätzlich bestehende aus den Studenten Peter Deutsch und Bill Heelan, die seinerzeit gemeinsam an der McGill University in Montreal tätig waren und ab 1987 mit dem Auftrag betraut waren, den Fachbereich, später die gesamte Universität, an die Infrastruktur des Internets anzubinden. Dabei wurde der Gedanke, dem mein Programmcode unterlag, weitergedacht und es entwickelte sich die Vorstellung einer dezentralen, datenbankgestützten Suchmaschine mit einem Datei- und Verzeichnisindex für alle berücksichtigten FTP-Server mit einer vom User zu bedienenden Ein- und Ausgabe direkt auf dem Schirm des lokalen PC oder Terminals: Der Archie-Server war geboren und mit ihm das Konzept der indexbasierten Suchmaschine.

Aus dem Dasein als kleines, nützliches Tool wurde ich, basierend auf der Funktion, die ich als lokales Tool in Skriptform erfüllte, erweitert: Die Entwickler Deutsch und Heelan erweiterten den Funktionsumfang meines Scripts, so dass ich als Server-Dienst über eine Telnet-Verbindung aufgerufen werden konnte in der die indexierten Server-Listings mit einer einfachen Befehlssyntax nach Schlagworten durchsucht werden konnten. Diese Listings wurden durch zuvor genannte Crawler ausgehend vom Archie-Server abgerufen und in einer Datenbank festgehalten, neue Einträge angelegt und bestehende aktualisiert. Bemerken sie dabei: Dies ist das bis heute gültige Grundprinzip der meisten Suchmaschinendienstleister im World Wide Web.

Der Archie-Server begründet das Konzept der indexbasierenden Suchmaschinen

Alternativ konnten Suchanfragen auch über eine an eine von meinem Programm ausgelesene Mail-Adresse gestellt werden, während ich die Ergebnisse an die Absenderadresse im Textformat zurückschickte. Mit steigender Verbreitung des Hypertext Transfer Protocol als Standardformat des WWW wurde mir eine HTTP-Schnittstelle verpasst, die es ermöglichte, über eine grafische Ausgabe eines Suchformulars in den neu aufgekommenen Browser wie etwa Mosaic, entsprechende Suchanfragen zu stellen. Um Bandbreite und Verbindungskosten zu sparen, wurde mir zudem ein dezentral organisiertes Server-Netzwerk mit Ablegern meiner Software implementiert, das selbstständig in bestimmten Zeiträumen die, von den aus dem lokalen geographischen Umfeld gelegenen FTP-Servern abgefragten und indexierten Datensätzen in den jeweiligen Datenbanken auf sehr effiziente Weise abgeglichen, was beinahe einer frühen Form von „Cloud Computing“ nahekommt und für seine Zeit ein fortschrittliches Verfahren darstellte, das Effizient arbeitete und dabei bandbreitenschonend operierte.

Dennoch: Zu meinen Hochzeiten wurde 50% des auf den Leitungen verursachten Traffics der Montrealer Universität durch meinen Dienst verursacht, was zähneknirschend vom Dekanat genehmigt wurde, der zwischen dem Kostenfaktor des Datenverkehrs einerseits und der innovativen Dienstleistung einer indexbasierten Suchmaschine, die über die Grenzen der Universität hinaus schnell Bekanntheitsgrad und Reputation gewonnen hatte, welche Studenten und Freiwillige an seiner programmiert hatten, zerrissen war. Eine Anekdote, die ich zum Schluss noch zum Besten geben möchte, ist die des Dekans des Fachbereichs der School of Computer Science, der nach dem Bekanntwerden der Suchmaschine im universitären Sektor von mehreren Kollegen anderer Universitäten lobende Anrufe und Mails erhalten hatte – Selber Dekan war jedoch vollkommen Ahnungslos und war über die Existenz meiner Suchmaschine überhaupt nicht im Bilde, da sie quasi „unter der Hand“ entwickelt und auf den Uni-Servern betrieben wurde.

Der Erfolg kam unerwartet – Die Suchmaschine Archie wurde ein voller Erfolg!

Ja, es war eben alles noch „Wild und Frei“, in dieser Pionierzeit des Internets, und aus diesem kreativen Chaos entwickelten sich bahnbrechende Technologien, wie wir sie heute kennen, wie auch ich, Archie, der erste meiner Art, die Vorbild für alle späteren indexbasierten Suchmaschinen werden, und so bahnbrechenden Projekten wie schlussendlich der Google Search erst den technisch Weg bereiten sollte, auch, wenn die Geschichtserzählung mich heutzutage gern bei alle dem Glanz des Marktführers Google auslässt.

Das Jahr 1990 – Erinnerungen einer Suchmaschine

Hallo, lieber Leser!

Ich bin Archie und begleite sie als ihr Erzähler durch diesen Artikel, der seine thematischen Anfänge vor gut 22 Jahren hat – Im Jahr 1990 genauer gesagt und der ihnen von meiner Geschichte erzählt, die mit Sicherheit auch ihr Leben nachhaltig verändert hat – Hätten sie es gewusst? Aber alles zu seiner Zeit, denn ein altes 2800-Baud-Modem wie meines ist ja auch kein D-Zug, nicht wahr? Gibt es denn überhaupt noch D-Züge? Ach verzeihen sie, es ändert sich ja alles so rasch und man ist 13 Jahre nach dem letzten Arbeitstag im Internet auch etwas „out of date“, wenn sie verstehen!

Aber zurück zum Thema: Erinnern sie sich denn noch an das Jahr 1990? Der Fall der Berliner Mauer und dem eisernen Vorhang zwischen den Supermächten, das Ende des kalten Krieges, die Montagsdemos, die UEFA-Fußball-Weltmeisterschaft in Italien, wo die deutsche Mannschaft den Pokal „nach Hause“ holte, erinnern sie sich noch daran? Sicherlich! Und was war es nicht für ein Jahr! Nach über 40 Jahren Trennung wieder ein vereintes Deutschland und die ganze Welt schien sich über Nacht zu wandeln und verlor die zur Gewohnheit gewordenen Anspannung sichtlich und durch diese Brille wirkte es als wenn auf einmal einfach alles möglich wäre.
Aber an mich, den guten alten Archie, erinnern sie sich sicher nicht. Warum sollten sie auch. Solche Begriffe wie „Internet“, „World Wide Web“ oder „Suchmaschine“ kannten sie damals vielleicht noch nicht einmal. Für den Otto-Normalverbraucher sollte es, gerade in Deutschland, noch ein halbes Jahrzehnt lang dauern bis die Begriffe zumindest zum guten Ton gehören würden und man sagen konnte dass das Internet zumindest als Begrifflichkeit in den Köpfen der deutschen Bevölkerung angekommen war.

Zu diesem Zeitpunkt feierte ich bereits meinen fünften Jahrestag ebenso meine Erschaffer: Alan Emtage, Peter Deutsch und Bill Heelan, die mich im Rahmen ihrer studentischen oder beruflichen Tätigkeit an der McGill University im kanadischen Montreal, Fachbereich der School of Computer Science in diesem bewegten Jahr 1990. Ich machte meinen

Meine ersten Versionen erlebte ich, als ich ursprünglich als Server-Cronjob jede Nacht eine Liste von FTP-Servern abarbeitete, deren Inhalte ich als sogenanntes „Listing“ durch den Befehl „ls“ abrief und für meine Programmierer dokumentierte, bald darauf auch anhand von Suchbegriffen digital verfügbar machte. Aus meiner ursprünglichen Bestimmung, als Helferlein, ein Tool, für den persönlichen Gebrauch entwickelt zu werden entwickelte sich jedoch Rasch die Idee, mit einer Vielzahl von Geräten eine hohe Abdeckung zu erreichen und die Betriebskosten in Form der Verbindungskosten durch die bevorzugte Neuerfassung geografisch naheliegender Server zu senken und die gesammelten Informationen statt dessen durch eine günstigere, einzelne Verbindung von Server zu Server die Datenbank-Inhalte für alle am Netzwerk angebundenen Server abzugleichen.

Als erste vollwertige Internet-Suchmaschine für die Indexierung frei zugänglicher FTP-Server-Listings legte meine Entwicklung das Fundament für eine Evolution, die durch meinen Nachkommen Google Search und den Erfolg des

Aus diesem Anfänglichen Konzept entstand bald ein kleineres, doch schon bald auf der ganzen Welt verwendetes Netzwerk meiner Ableger, das erste Suchmaschinennetzwerk war geboren und gab den Anstoß für weitere Entwicklungen in diesem Bereich, die schlussendlich auch meinen entfernten Nachkommen, der Google Suchmaschine, in diese Abstammung mit einschließt.

Nach Verbindungsaufbau mit einem meiner Server stellte die Software einen per Telnet aufrufbaren Dienst bereit, in welchem der User mit einer leicht zu erlernenden Befehlssyntax seine Suchanfragen formulieren kann. Diese Anfragen wurden mit den in meiner Datenbank hinterlegten Verzeichnisnamen und Dateinamen verglichen und führten zu einer Bildschirmausgabe, Anhand dessen der Anwender die FTP-Adresse und den Zielordner erfahren konnte, in dem sich ein mögliches Suchergebnis, das den Kriterien entsprach, befinden würde. Nun konnte der Nutzer sich mit dieser Adresse verbinden und ohne selbst auf die Suche nach der Zieldatei gehen zu müssen, schnell an die gesuchten Daten kommt.

Das alles mag heute antiquiert wirken und vor allem umständlich und wenig intuitiv in der Bedienung erscheinen, doch man beachte, dass die Entwicklung grafischer Betriebssystem-Oberflächen auf den dominierenden Systemarchitekturen, die zumeist den von IBM definierten Standards RISC oder CISC entsprachen und sich zumeist als IBM-Kompatible x86-Systeme (CISC) darstellten, die dank ihres umfangreichen CPU-Befehlssatzes in vielseitigen Anwendungen verwendbar waren, doch eben aus demselben Grund nur begrenzte Performanz erreichten, wohin das Gegenstück sich in den, wie für alle Formen der UNIX-Derivate geschaffenen Prozessoren der MIPS-Architektur, die an der Stanford University entwickelt wurden und den spezialisierten Workstation-Bereich, in dem hohe Rechenleistung für sich stets wiederholende und nur begrenzte Anweisungen verwendende Anwendungen wie der digitalen Bildbearbeitung, dem Videoschnitt aber auch der Verwendung als leistungsstarke Server-CPU fand. Was jedoch beide Architekturen gemein hatten, war, das die Anwender es gewohnt waren, in der Systemkonsole zu arbeiten und die Befehle, die heute ein GUI umsetzt, selbst aufzuführen.

Doch trotz meiner rasanten Verbreitung über die Mailboxen und FTP-Server weltweit, die ich als erstes dezentrales System meiner Art rasch erreichte, war mit mir eine Idee geboren und die praktikable Umsetzbarkeit eines, auf automatisierten Crawlern basierenden, Suchmaschinendienstes mit automatisierter Synchronisierung der Datenbank war durch mich, Archie, bewiesen und meinem Vorbild würden schon bald viele Suchmaschinendienste nacheifern und so die Struktur dieses ganz jungen WWWs bei seinem Durchbruch in die Mitte der Bevölkerung zum positiven beeinflussen.