Während Jahrzehnten galt der Duden als das Referenzwerk der deutschen Sprache schlechthin. Bei den meisten Fragen der deutschen Sprache entschied er letztinstanzlich, was richtig und falsch war. Im Internetzeitalter benutzen immer mehr Leute Suchmaschinen wie Google. Sie geben unklare Begriffe oder Redewendungen ein und entscheiden aufgrund der angezeigten Trefferzahl, ob diese sprachlich konsensfähig sind. Traditionelle Wörterbücher und lexikographische Kompetenz werden immer unwichtiger. Verhunzt Google unsere Sprache?
Martin Bächtold, Dezember 2006
Rund vier Millionen Treffer findet Google für Rechtschreibefehler wie „vieleicht“. „Bischen“ und „Gallerie“ bringen es sogar auf mehr als sieben Millionen Resultate. Auch bei den Stilblüten brechen die Suchmaschinen sämtliche Rekorde: der Pleonasmus „Zukunftsprognose“ wird rund 125'000 mal und der Kongruenzfehler „in Vergleich“ wird 250'000 mal verwendet. Bei einer solchen verhehrenden (3’000 Treffer) Fehlerhäufung wird nur ein Einfallspinsel (11'400 Treffer) oder ein Dilletant (22’700 Treffer) eine Suchmaschine zur Schreib- oder Stilkontrolle beiziehen. Doch so einfach ist die Sache nicht!
Zu den fleissigsten Sprach-Googlern gehören zweifellos die Übersetzer – sie setzten sich mit ihrer Arbeit permanent einer harschen Kritik aus und suchen mithilfe von Suchmaschinen eine Rechfertigung für ihr Tun. Jede Übersetzungsagentur weiss, dass sich in der Schweiz das Français fédéral viel besser verkauft als ein literarisch hochstehender Sprachstil, und sie gibt sich deshalb Mühe, den zahlenden Deutschschweizer Kunden das zu liefern, was sie mit ihrem rudimentären Schulfranzösisch auch einwandfrei verstehen. Trotzdem kommt es immer wieder zu Reklamationen, und die Kunden möchten wissen, wieso man beispielsweise „warten auf“ nicht mit „attendre sur“ übersetzt. Da es auf solche Fragen keine logischen Antworten gibt, kommen die Übersetzer in Beweisnot. Sie müssen deshalb versuchen, die stilistisch unsensiblen Kunden mit quantitativen Untersuchungen zu überzeugen: „warten auf den Papst“ bringt mit Google 32’000 Treffer, während die Suche nach „attendre sur le pape“ kein einziges Resultat erzeugt. Obwohl die Statistiken meist klar für die professionellen Schreiber und Muttersprachler sprechen, reagieren die Kunden oft verärgert. Sie weisen auf die zahlreichen Fehler im Internet hin und meinen: „Wir lassen uns die Sprache nicht von Google diktieren!“
Kann mit Internet-Suchmaschinen die Richtigkeit oder die Falschheit von orthographischen, grammatikalischen oder stilistischen Konstruktionen bewiesen werden? Wie beeinflussen die Suchmaschinen unseren Sprachgebrauch?
Fehlerverarbeitung im Hirn
Damit die Menschen Stil- und Rechtschreibefehler erkennen können, müssen diese im Gehirn eine Reaktion auslösen. Die erste Hirnregion, die an der Sprachverarbeitung beteiligt ist, wurde 1861 vom französischen Neurologen Paul Broca (1824-1880) entdeckt. Er beschrieb einen Patienten, der zwar noch einfache Sätze verstehen, aber nicht mehr sprechen konnte. Die Autopsie ergab eine Läsion des Gehirngewebes in der linken Hemisphäre. Diese Beobachtung veranlasste Paul Broca in der verletzten Hirnregion den Sitz der Sprachproduktion zu sehen.
Etwas später entdeckte Broca, dass sich die Schädeldecke beim Ausführen von komplizierten Tätigkeiten erwärmt. Die Mess- und Lokalisierungsmethoden der Gehirnaktivität wurden seither erheblich verbessert. Mit der Elektroenzephalographie wurde es möglich, die aktiven Neuronen im Gehirn genau zu registrieren und mit der Magnetresonanztomographie können Veränderungen des Sauerstoffpegels im Blut nachgewiesen werden. Mit einer Kombination dieser Methoden kann heute die mit der Sprachverarbeitung verbundene Hirnaktivität zeitlich und räumlich ziemlich genau beschrieben werden.
Am Max-Planck-Institut in Leipzig wurden die Reaktionen gemessen, die falsche Sätze im Gehirn auslösen. Bei den Versuchen wurden Probanden Sätze mit falscher Syntax (z.B. „Die Kuh wurde im gefüttert“) präsentiert. Diese lösten nach 120 Millisekunden in einer genau lokalisierbaren Hirnregion eine deutlich messbare Aktivierung aus. Bei Bedeutungsfehlern regiert das Gehirn erst später. Bei einem Satz wie „Das Lineal wurde gefüttert“ stellen die neuronalen Alarmlampen erst nach 400 Millisekunden auf rot um. Das Hirn verarbeitet also zuerst die Grammatik und erst nachher die Bedeutung eines Satzes. In beiden Fällen dauert es viel länger, bis die Informationen verarbeitet sind; sie müssen zuerst in einem Korrekturzentrum umgearbeitet werden, bevor sie ins Bewusstsein gelangen.
Die Hirntätigkeit bei der Spracherkennung kann mit dem Wasser in den Bergen verglichen werden, das sich im Laufe der Zeit zahlreiche Rinnen und Bachbetten gräbt, damit es mit dem geringsten Widerstand zu Tal fliessen kann. Wenn ein grosser Stein in ein Bachbett fällt, gibt es einen Rückstau und das Wasser braucht länger, und wenn der Widerstand nicht nachlässt, frisst es sich einen neuen Weg in den Berg. So ähnlich funktioniert die Spracherkennung im Gehirn. Beim Erlernen einer Sprache fressen sich immer wieder wiederholte Wortkombinationen und Redewendungen in die Gehirnrinde. Wenn ein grober Sprachfehler durch das Hirn transportiert werden muss, gibt es einen Rückstau, es müssen mehr Blutkörper gepumpt und mehr Neuronen über die Synapsen geschickt werden. Das Hirn hat mit einem korrekt formulierten Satz weniger Arbeit, weil es das Satzmuster schon kennt und mit Altbekanntem besser fertig wird. Wenn jedoch ein Fehler laufend wiederholt wird, gewöhnt es sich daran. Die aneckende Stelle wird abgeschliffen und der Fehler wird nicht mehr als solcher erkannt.
Aus neurologischer Sicht können Grammatik und Orthographie als eine Hirnfaulheit erklärt werden. Fehlerfreie Sätze fliessen nach dem Prinzip des geringsten Widerstands durch die Hirnleitungen. Fehler produzieren einen Verarbeitungsrückstau, weil sie in den Leitungen stecken bleiben. Aufgrund dieses Verhaltensmusters könnte eine Hirnlappengrammatik entwickelt werden. Eine Gruppe von Probanden würde an Messgeräte angeschlossen und ihnen würden Sätze oder Wörter vorgelegt. Alle Formulierungen, die mehr als 100 Millisekunden Verzögerung produzieren, würden verboten oder als falsch bezeichnet. Das falsche Wort „Gallerie“ würde sicher auf Anhieb ohne Verzögerung durch die Leitungen fliessen, für den Orthograhiefehler „vieleicht“ bräuchte es vermutlich ein Duzend Versuche, bis die entsprechenden Leitungsverengungen frei geschliffen wären. Hingegen würde sich die Deutschschweizer Übersetzungsvariante „attendre sur le pape“ auch nach monatelangen Wiederholungen nicht in ein gesundes Franzosenhirn einprägen lassen.
Wittgenstein und seine Sprachspiele
Mit den neurologischen Messungen können wir zwar feststellen, wann und wo im Hirn die Sprache verarbeitet wird. Die Neurolinguistik gibt allerdings keine Auskünfte darüber, wie die Sprache verstanden wird. Wie erkennen wir die Bedeutung eines Wortes oder den Sinn eines Satzes?
Diese Frage versuchte Ludwig Wittgenstein (1889 – 1951), der zweifellos bedeutendste Sprachphilosoph des 19. Jahrhunderts, zu beantworten. Vor seiner brillanten Sprachanalyse betrachteten Philosophen und Linguisten das Wort meistens als eine Art Abbildung eines Gegenstands. Das Wort „Wein“ wurde beispielsweise als Abbildung oder Symbol eines Getränks verstanden, das aus Trauben hergestellt wird. Wittgenstein brach nun radikal mit dieser Abbildungstheorie. Die einzelnen Worte stehen bei ihm nicht mehr für Gegenstände, sondern ihre Bedeutung ist ihr Gebrauch in der Sprache. Nur wenn wir die Gebrauchsregeln der Wörter kennen, gelingt es uns herauszufinden, was ein Sprecher in einer bestimmten Situation meint.
Wenn der Bundesrat dem Volk reinen Wein einschenkt, so weiss jeder Leser sofort, dass hier kein vergorener Traubensaft verteilt wird. Denn selbst wenn das Wort „Wein“ durch ein Missgeschick ausgelassen wird, kann jeder geübte Korrektor den fehlerhaften Satz problemlos aufgrund des Kontextes ergänzen. Im Verlaufe des Spracherwerbs wurden offensichtlich die Benutzungsregeln für das Wort „Wein“ in unsere Hirnrinden eingeschliffen, und nur aufgrund dieser erlernten Wortbenutzungsregeln können wir den Sinn erkennen.
Wittgenstein nennt diese Regeln „Sprachspiele“. Sie werden im Laufe des Sozialisationsprozesses durch die Teilnahme an einer Lebenswelt eingeübt. Sprachspiele können aus einzelnen Worten, Wortgruppen oder ganzen Fachterminologien bestehen. Auch beispielsweise die Farbbezeichnung „rot“ ist bei Wittgenstein ein Sprachspiel: "Wie erkenne ich, dass diese Farbe Rot ist. Eine Antwort wäre ‚Ich habe Deutsch gelernt.’" Wir erkennen also die Farbe Rot nicht, weil wir wissen, dass es sich um ein Licht mit einer Wellenlänge zwischen 625 und 740 nm handelt, sondern schlicht und einfach, weil uns der Umgang mit dem Wort „Rot“ während der Kindheit in die Hirnrinde eingeprägt wurde.
In seinen philosophischen Untersuchungen befasst sich Wittgenstein mit dem Wahrheitsgehalt der Sprachspiele. Er kommt zu dem Schluss, dass alle Spiele gleichwertig sind und keines mehr Gewicht als die anderen hat. Da es keine übergeordnete Instanz gibt, die die Gültigkeit einer Aussage verbürgt, gibt es auch keine richtigen und falschen Sprachspiele.
Für einen Politiker, der nicht primär am Wahrheitsgehalt interessiert ist, bestehen allerdings sehr wohl Unterschiede zwischen den einzelnen Spielen. Bei den Wahlen ist er auf jede Stimme angewiesen und damit er gewählt wird, muss er so kommunizieren, dass ihn die Wähler möglichst gut verstehen. Bei seinen Äusserungen muss er also immer sorgfältig abwägen, ob er sich innerhalb des Sprachspiels seines Zielpublikums bewegt. Sobald er die Grenzen der Sprachspiele seiner Rezipienten überschreitet, wird sein Reden sinnlos und wird als Fehler eingestuft.
Sprachspiele sind also qualifizierbar und können in einer Rangliste geordnet werden. Ein von vielen Wählern verstandenes Sprachspiel ist für einen Politiker ein besseres Sprachspiel: Quantität setzt sich hier in Qualität um. Die Schwierigkeit liegt nun aber darin, dass es sich bei den Sprachspielen keinesfalls um fixe Regeln handelt. Ganz im Gegenteil, die Grenzen zwischen den Sprachspielen sind verschwommen, jedes Publikum benutzt wieder andere Regeln und die Spielregeln ändern sich dauernd.
Sprachspielwandel
Die Summe aller Sprachspiele bewegt sich wie ein Gletscher mit einem Nähr- und einem Zehrgebiet. Im Nährgebiet fallen ständig neue Schneeflocken an. Die meisten werden sofort wieder weggeblasen; ein Teil des Neuschnees bleibt aber liegen und verfestigt sich. Im Laufe der Zeit fliesst die Gletschermasse gegen das Zehrgebiet, wo sie sich in Wasser auflöst und verschwindet.
Jede Sprache wird laufend mit neuen Wörtern ergänzt und sämtliche Aspekte ihres Wesens sind einem dauernden Wandel ausgesetzt. Bei den meisten neuen Wörtern handelt es sich um Eintagsschnee, sie verschwinden sofort wieder; andere aber halten sich hartnäckig und etablieren sich im Alltagswortschatz. Am Anfang des Wandelprozesses werden alle neuen Begriffe und grammatikalischen Neuerungen als Regelverstösse oder Fehler betrachtet. Die Lehrer ahnden sie mit Rotstiften und versuchen krampfhaft sie wieder zu vertreiben. Einigen gelingt es, sich trotz allen Widerstands zu verfestigen; sie werden von den Massenmedien übernommen und schlussendlich im Duden lexikographisch erfasst. Die Fehler von heute werden somit zu den Regeln von morgen.
Die Betrachtungsweise der Sprache hängt von der Position des Betrachters auf dem Sprachgletscher ab. Ältere Sprachbenutzer, die sich eher im Zehrgebiet ansiedeln, wo dauernd veraltete Wörter und Regeln den Bach hinuntergeschwemmt werden, empfinden alle Neuerungen aus dem Nährgebiet als heillose Sprachverlotterung. Die jüngere Generation im oberen Teil des Gletschers erleben den Sprachgebrauch aus den unteren Teilen als Schnee von gestern, als antiquiert oder „has been“.
Ein Gletscher bewegt sich durch sein Eigengewicht und dem daraus resultierenden Druck. Kein einzelnes Schnee- oder Eiskorn ist in der Lage den Gletscher vorwärts zu schieben, und trotzdem bewegt er sich, weil jedes Korn dem gleichen Handlungsmuster folgt: Es möchte seine Lage im Verhältnis zum Erdmittelpunkt verbessern. Dabei stösst es auf andere Körner und so kommt es, dass federleichte Mikrostrukturen die tonnenschwere Makrostruktur in Bewegung bringen.
Bei den Sprachen erfolgt der Wandel nach einem ähnlichen Interaktionsmuster zwischen Mikro- und Makrostruktur, das man auch in der freien Marktwirtschaft beobachten kann, wo gemäss der Theorie von Adam Smith der wirtschaftliche Egoismus des Einzelnen zu einem höheren Gesamtwohl führt. Der Sprachwandel wird im Wesentlichen durch drei menschliche Handlungsmaximen herbeigeführt: Innovation, Bequemlichkeit und Imponiergehabe.
Ein krass cooler Simser (SMS-Verschicker) schreibt nicht „eine Dampflokomotive“ sondern nur „ne Dampflok“ und „mit krass“ und „cool“ möchte er seinen Kollegen imponieren und sich von der Generation in der Zehrzone abheben, die damals noch „dufte“ oder „spitze“ als Modewörter verwendete. Einem einzelnen Sprachteilnehmer ist es zwar unmöglich, die Sprache zu verändern; da aber alle Teilnehmer den drei erwähnten Handlungsmaximen folgen, kommt es zur Interaktion zwischen der Mikro- und Makrostruktur, und der Sprachgletscher kommt ins Fliessen.
Eine Wanderung auf einem unstabilen Sprachgletscher ist immer mit einem hohen Risiko verbunden. Es besteht nicht nur die Gefahr, dass man zu hoch hinauf oder zu weit hinunter gerät. Auch in der Mittelzone befinden sich zahlreiche Spalten, und wer sexistische, rassistische, nazistische oder religionsfeindliche Sprachspiele verwendet, riskiert einen tiefen Absturz. Diese Gefahren rufen nach modernen Messgeräten. Man möchte wissen, wo die Spalten sind, und sich vorher entsprechend absichern. Wer einen Artikel, eine Werbebroschüre oder eine Rede schreibt, will im Voraus wissen, ob und wie gewisse Begriffe und Wendungen verstanden werden, und zwar ohne dass mehrere Duzend Probanden an teure neurologische Messgeräte angeschlossen werden müssen.
Suchmaschinen als Sprachspielmesser
1998 gründeten Larry Page und Sergey Brin in einer Garage die Firma Google Inc. und brachten die erste Testversion einer neuen Internet-Suchmaschine auf den Markt. Acht Jahre später verfügt die Suchmaschine über einen Index von über 8 Milliarden Seiten und die Firma erreichte einen Börsenwert von über 150 Milliarden Dollar. Bei Suchmaschinenanfragen im deutschen Internet besitzt Google einen Marktanteil von über 90 Prozent.
Worin liegt der Erfolg der Suchmaschine Google? Schon vor Google gab es Suchmaschinen. Sie hatten allerdings den Nachteil, dass die Reihenfolge der angezeigten Seiten oft sinnlos war. Wer etwas über den amerikanischen Präsidenten wissen wollte, fiel unter Umständen zuerst auf eine Seite eines Computerfreaks in Hintersindelfingen. Er musste duzendweise Seiten öffnen, bis er mehr oder weniger zufällig auf die gewünschte Information stiess.
Die beiden Google-Gründer brachten Ordnung ins Internet, indem sie das so genannte Page Ranking mit einer einfachen aber genialen Erfindung optimierten. Jede Seite erhält bei Google einen Rang, der von der Anzahl Seiten abhängt, die die Seite referenziert haben. Das Ranking ist zudem redundant: Eine Seite die selbst über zahlreiche Referenzen verfügt, bringt einer referenzierten Seite mehr Punkte als beispielsweise die unwichtige und deshalb isolierte Seite unseres Computerfreaks aus Hintersindelfingen.
Der von Page und Brin entwickelte Algorithmus stellt für seine Benutzer einen Index zusammen, bei dem die Seitenrangordnung aufgrund einer fortlaufenden demokratischen Abstimmung dynamisch zusammengestellt wird. Die Wähler setzen sich aus unzähligen Webseiten-Verfassern zusammen, die mit ihren Links anderen Seiten eine Stimme geben. Damit bei diesen unkontrollierbaren Abstimmungen die Möglichkeit des Wahlbetrugs verkleinert wird, haben Page und Brin die direkte und indirekte Demokratie kombiniert. In ihrem System erhält jeder Webseiten-Verfasser eine direkte Stimme, falls er aber selbst schon von vielen Wählern gewählt wurde, wird dieses Vertrauen belohnt, und er kann die so gesammelten Stimmen weitergeben.
Das Google-Ranking reflektiert also die Handlungsmaximen aller Link-anlegenden Webseiten-Verfasser, die allerdings noch wissenschaftlich untersucht wurden. Es ist aber anzunehmen, dass sie vorwiegend Seiten verlinken, die sie inhaltlich wichtig finden. Die für Sprachspiel-Googler relevanteren Aspekte, nämlich die korrekte orthographische Schreibweise oder die grammatikalische Form wird bei der Seitenauswahl kaum berücksichtigt. Man kann aber davon ausgehen, dass zwischen Form und Inhalt eine gewisse Beziehung besteht. Wer zum Beispiel nach dem Begriff „Lawinen“ sucht, findet das Schweizerische Lawineninstitut an der obersten Stelle der Ergebnisliste. Es ist evident, dass dieses renommierte Forschungsinstitut einen kompetenten Umgang mit dem Wort „Lawine“ pflegt. Bei der Suche nach dem Sprachspiel „Lawine an Reklamationen“ landet man dann auch prompt nicht mehr beim Lawineninstitut, sondern auf einer Seite über Handy-Hersteller.
Im Vergleich zu lexikographischen Werken wie der Duden bietet Google noch weitere Vorteile. Er ist nicht nur gratis und einfacher zu benutzen, sondern gibt mit den relevantesten Ergebnissen auch die gesamte Trefferzahl an, also die Anzahl Seiten, in denen die gesuchten Wörter vorkommen. Während der Duden nur eine boolsche Antwort vermittelt, nämlich richtig oder falsch, kann der Google-Benutzer aufgrund der Resultate nicht nur eine qualitative, sondern auch eine quantitative Beurteilung vornehmen.
Schreibt man besser Stosstange oder Stossfänger, Schraubendreher oder Schraubenzieher, Streichholz oder Zündholz? Die Google-Statistiken beantworten solche Fragen souverän, und mit Sucheinschränkungen wie „Seiten aus der Schweiz“ können Texte ans länderspezifische Zielpublikum angepasst werden. Auch bei der Kontextsuche ist Google erfolgreich. Darf man den Begriff „Volksmusik“ mit „völkischer Musik“ umschreiben? Die Suche nach „völkische & Nationalsozialismus“ bringt viel mehr Treffer als der Terminus selber. Es besteht also die Gefahr, dass „völkisch“ mit Nationalsozialismus konnotiert wird.
Vor allem Sprachspiel-gegoogelte Übersetzungen sind qualitativ spürbar besser, weil sich der aussenstehende Übersetzer relativ schnell an die Fachterminologie seines Auftraggebers anpassen kann. Das Sprachempfinden eines einzelnen Schreibers ist immer an seine individuelle Lebensform gebunden. Durch die systematische Überprüfung aller Varianten kann die Konsensfähigkeit der Sprachspiele getestet werden, und der aus diesem Verfahren resultierende Text fliesst widerstandsfreier durch die Hirnleitungen; er wird von den meisten Lesern als angenehmer empfunden und besser verstanden. Keinesfalls kann in diesem Zusammenhang von Diktatur gesprochen werden. Die von Google angezeigten Seiten wurden im Rahmen eines demokratischen Systems ermittelt, und die Trefferzahl basiert auf allen im Web vorhandenen Dokumenten.
Die Eingangs aufgeführten Orthographiefehler sind somit immer im Verhältnis zu den richtigen Resultaten zu sehen. Die vier Millionen Treffer für die falsche Orthographie von „vieleicht“ stehen in Relation zu den 95 Millionen richtigen Schreibweisen. Auch bei „Gallerie“ ist die korrekte Schreibweise zehn mal häufiger als die falsche. Es gibt nur ganz wenige Beispiele, wo eine mehrheitlich falsche Schreibweise die vom Duden vorgeschlagene übertrifft. Das bekannteste Exempel ist das Wort „Schmant“ (saurer Rahm): hier finden wir nur 15'600 richtige Treffer, während die vermeintlich falsche Schreibweise „Schmand“ über 330'000 Resultate erzielt. Im Sinne unseres Sprachevolutionstheorems „Die Fehler von heute, sind die Regeln von morgen“ dürfen extrem häufig auftretende Abweichungen nun nicht einfach als Regelübertretungen abqualifiziert werden, sondern müssen als Voten für eine reformierte Schreibweise interpretiert werden.
Die angeführten Beispiele zeigen, dass die Sprachevaluation mit Google vorläufig nur von Schreibprofis, also von Redaktoren oder Übersetzern, eingesetzt werden kann, weil sie voraussetzt, dass mehrere Spielarten bekannt sind. Bei Wortgruppen wird die Suche noch schwieriger. Wer wissen möchte, ob es „der“ oder „das“ Apostroph heisst, fällt mit Google auf die Nase. Das schlechte Resultat kommt hier nicht nur zustande, weil tatsächlich eine Mehrheit von Webautoren fälschlicherweise meint, Apostroph sei ein Neutrum, sondern weil auch richtige zusammengesetzte Wörter wie zum Beispiel „das Apostroph-Blog“ mitgezählt werden und das Resultat zusätzlich verfälschen.
In der deutsche Sprache ist die Sprachspielsuche besonders diffizil, weil sie im Vergleich zur Grundform einen Flexionsfaktor von ca. 10 aufweist, also wesentlich mehr als in dem die Flexionen langsam verlierenden Englischen (ca. Faktor 4) oder dem Chinesischen, das keine Wortbeugung kennt. Beim Sprachspiel-Googeln müssen deshalb immer mehrere Flexionen (Haus, Häuser, etc.) ausprobiert werden, und nur die kumulierte Trefferzahl erlaubt statistische Rückschlüsse. Ein weiteres Handicap bildet der miserable Spracher¬kennungs¬algorithmus von Google. Auch wenn die Auswahl auf „Seiten auf Deutsch“ eingeschränkt wird, wird bei sprachübergreifenden Begriffen wie „Formation“ ein Sammelsurium von englischen und französischen Seiten angezeigt.
Google wurde nicht für die Sprachspielsuche, sondern für die Suche nach Inhalten optimiert. Die einzige Suchmaschine im Web, die speziell für Sprachrecherchen konzipiert wurde, ist die von Autor dieses Artikels programmierte Übersetzungssuchmaschine
Keybot. Die Übersetzungs-Suchmaschine durchforstet ähnlich wie Google das Web; es werden aber nur Texte indexiert, die in mehreren Sprachen vorhanden sind. Im Gegensatz zu allen anderen Suchmaschinen erstreckt sich der Index bei TSM nicht über eine ganze Seite, sondern jeweils nur über eine einzelne Übersetzungseinheit, d.h. einen Abschnitt, einen Titel oder den Inhalt einer Zelle in einer Tabelle. In einem noch nicht im Web zugänglichen Gammaprojekt wird die Segmentierung noch weiter geführt, und es werden nur noch einzelne Sprachspiele indexiert. Dadurch entsteht das erste auf künstlicher Intelligenz basierende Sprachwörterbuch. Es wird vermutlich von Beginn weg das umfangsreichste Wörterbuch, aber auch dasjenige, das am meisten Fehler enthalten wird.
Die Suchtechnologie im Internet ist kaum zehn Jahre alt und steckt noch in den Kinderschuhen. In absehbarer Zeit werden Suchmaschinen im Web auftauchen, die für die Sprachspielsuche optimiert sind und ausschliesslich sprachliche Aspekte berücksichtigen werden. Schon heute kann man feststellen, dass immer mehr junge Internet-Benutzer die schwerfälligen lexikographischen Regelwerke in den Büchergestellen verstauben lassen und den schnelleren und intelligenteren Google benutzen. Die Suchmaschinen werden den Umgang mit der Sprache grundlegend verändern und radikal vereinfachen. Der alte Menschheitstraum einer Universalgrammatik wird dann endlich wahr. Für die präskriptive Rechtschreibung und Grammatik gilt in Zukunft für alle Sprachen nur noch eine einzige und simple Regel: richtig ist, was häufig ist, und häufig ist, was richtig ist. Und wer diese Regel nicht richtig findet, der wisse, dass die Fehler von heute die Regeln von morgen sind!
Über den Autor:
Martin Bächtold studierte in Fribourg, Genf, New York, Stanford und Zürich Geschichte, Germanistik, Philosophie und Wirtschaft. 1991 brachte er den ersten vollautomatischen Übersetzungsagenten auf den Markt, der Aufträge an Fachübersetzer übermittelt. 2005 lancierte er mit
Keybot die erste Übersetzungs-Suchmaschine im Internet. Keybot ist eines der grössten Übersetzungsarchive der Welt. Mit Keybot findet man Suchbegriffe und deren Übersetzung auf mehrsprachigen Webseiten.