30. Juni 2004

[ Knowledgework und PIM , Technologie , Trends , Wissensmanagement ]

Der Google-PC

Ed Taekema schreibt über Personal Information and Knowledge Management in the Google Age. (Via Jack Vinson)

Früher waren Computer noch einfach: Wir hatten etwas Hierarchie und schöne 8+3-Dateinamen. Dann wurde es immer mehr Dateien und wir bekamen mehr Hierarchie und längere Dateinamen. Dann kamen die Netzwerke und wir hatten noch hierarchische Ablagen in Netzwerkordnern dazu.

Und dann kamen E-Mail und das Web und 100-Gb-Festplatten und das große Chaos.

Und Google.

Wer heute etwas sucht, googelt danach. Wo eine Information steckt ist fast egal: Wer ein paar Wörter kennt, die das Stück beschreiben, kann es finden. Ich selber suche schon kaum noch mit meiner eigenen Weblog-Suchmaschine: "roell miles davis" reicht aus oder roell NGO oder anderes.

Das gleiche kann auch lokal passieren. Wer einen persönlichen Wiki betreibt weiß, dass ihm die Volltextsuche alles findet. Und jetzt bauen wir einen Google- PC:

On the Google PC, you wouldn’t need third-party add-ons to index and search your local files, e-mail, and instant messages. It would just happen.
Instead of idly slacking most of the time, our PCs ought to be indexing, analyzing, correlating, and classifying.

Alles wird indiziert und für eine schnelle Suche verfügbar gemacht. Natürlich kann man dann immer noch Dokumente in Ordnern ablegen. Aber für viele Fälle wird das gar nicht mehr nötig sein. Um ein Dokument zu speichern, drückt man nur noch einen Knopf, tippt ein paar Schlagwörter ein und fertig. Der Google-PC findet alles wieder.

Wie das aussieht kann man heute schon in GMail (google: roell gmail erahnen. "Search, don't sort." Es funktioniert und es wird kommen. Mac OS X Tiger wird "Spotlight", eine metadatenbasierte Suche haben und Longhorn wird etwas ähnliches enthalten. Das Ressourcenproblem ist lösbar.

Mit dem Google-PC kommt eine Abstraktion vom Filesystem. Viel mehr Daten können gespeichert werden, weil sie auffindbar bleiben. Sie werden rund um Suchwörter geclustert und durch Kontexte wie Zeit, Vorgänge, beteiligte Personen vernetzt.

The voracious spider wouldn’t stop there, though. The next piece of low-hanging fruit would be the Web pages you visit. These too would be stored, indexed, and made searchable. More ambitiously, the spider would record all your screen activity along with the underlying event streams.
Metadaten die heute verloren gehen können gespeichert und genutzt werden.

Und dann? Finden wir mehr, schneller, besser. Können wir mehr arbeiten anstatt rumzusuchen. Müssen wir Oma nicht mehr erklären, wo sie was hinspeichern muss. Brauchen wir noch größere Festplatten. Gibt es einen Schub für das Semantic Web (?).

Ich will einen.

Trackbacks sind Links von anderen Weblogs auf diesen Eintrag.

Google Desktop Search (Beta, klar, ist heute nicht alles Beta?) ist da. In diesen Minuten bricht gerade die Berichterstattungswelle los. Forbes.com hat einen ganz interessanten Artikel. Während ich das hier...

Das E-Business Weblog: Google Desktop Search ist da (14.10.04 23:04)

 

Kennst du die Metadaten-Verwaltung von Microsoft Office (Bildschirmfoto)? Und den Indexdienst von Windows (Bildschirmfoto)? Beides realisiert in etwa das, was du willst.

Thiemo Mättig am 30.06.04 20:10 #
 

Kennst Du den Windows-Index/Suchdienst praktisch? Ich habe noch kein System gesehen, auf dem er performant funktioniert hätte. Auf meinem P4 2GHz braucht allein die Suche nach einer Datei über den Dateinamen bei 5 gegebenen Buchstaben in 24 GB Daten über 3 Minuten.

Vielleicht kann ein technisch kompetenterer Mensch als ich da noch was zu sagen, warum das nicht funktioniert und was genau Longhorn da anders machen soll.

Martin Röll am 30.06.04 22:24 #
 

Der Indexdienst arbeitet nach ähnlichen Methoden wie Google. Wenn er richtig konfiguriert ist (und genau das ist der Haken, weil das nirgends der Fall ist - abgesehen davon, dass man das Suchformular nicht findet), dauert die Suche nur noch Sekunden. Natürlich: Das komplette Dateisystem sequentiell abzusuchen dauert 3 Minuten. Dafür ist NTFS nun mal nicht gemacht.

Thiemo Mättig am 30.06.04 23:31 #
 

Es ist schon witzig zu sehen, wie im Moment die ganze Welt begeistert ist von dieser ach so neuen Idee, Informationen volltextzusuchen.

Für sowas braucht man keinen Google-PC. Sowas gibt's schon seit Jahren: Lotus Notes / Domino.

Oliver Regelmann. am 01.07.04 12:20 #
 

"Google hat das Web nicht verändert. Wir haben vorher schon alles mit unseren Suchmaschinen durchsuchen können."

Zugegeben: Wenn Du Deine komplette Arbeit in Lotus machst und Deine Suche performant funktioniert magst Du schon sehr nah an der Vision dran sein. (David Gurteen fällt mir da gerade ein: Ein einziges riesiges System auf Lotus-Basis, in dem er praktisch alles macht.) Aber das ist eine Ausnahme. Unsere Indexierungen reichen nicht aus, sie umfassen nicht alle Daten, sie verknüpfen unterschiedliche Quellen nicht, sie kommen mit der Masse an Daten nicht mehr klar. _Deshalb_ brauchen wir den Google-PC. Volltextsuche war schon immer toll. Nur war sie nicht so anwendbar, wie sie es hätte sein sollen. Heute kommen wir an den Punkt, an dem sie nutzbar wird.

Martin Röll am 01.07.04 12:35 #
 

Die Meldung bezüglich Longhorn klingt für mich so, als würde einfach der seit Windows 2000 existierende Indexdienst (What is Indexing Service?) weiterentwickelt. Wenn er einmal richtig eingestellt ist (Indizierung unbekannter Dateitypen aktivieren, einmal über Nacht laufen lassen), beschleunigt er auch die Suche über das normale "Start/Suchen" (zu erkennen an der Statusmeldung "indexbasierte Suche"). Klar, das ist proprietär, und nein, PDFs lassen sich nicht im Volltext durchsuchen, aber immerhin...

Thiemo Mättig am 01.07.04 19:03 #
 

Sie brauchen den PDF filter von Adobe, which is available here: ftp://ftp.adobe.com/pub/adobe/acrobat/win/all/ifilter50.exe

Und XP-User sollten das hier lesen: http://www.adobe.com/support/techdocs/333ae.htm

Andreas Raht am 11.08.04 18:20 #