Ek het klaar op dag 2 van FAST opleiding in sonnige Needham, MA, en ek bars met idees (wat al die goeie opleiding klasse aan my doen). One particular aspect of FAST has me thinking and I wanted to write it down while it was still fresh and normal day-to-day "stuff" druk dit uit my kop.
Ons SharePoint WSS 3.0 / MOSS implementeerders dikwels 'n moeilike probleem met 'n redelik-grootte SharePoint-projek in die gesig staar: Hoe kry ons al die ongemerkte data gelaai in SharePoint so dat dit alles inpas in ons perfek inligting argitektuur?
Dikwels genoeg, dit is nie so 'n moeilike probleem omdat ons onsself omvang uit die moeilikheid: "Ons gee nie om nie oor enigiets meer as 3 months old." "We’ll handle all that old stuff with keyword search and going-forward we’ll do it the RIGHT way…" Etc.
Maar, what happens if we can’t scope ourselves out of trouble and we’re looking at 10’s of thousands or 100’s of thousands (of selfs miljoene) van Dokumente — die laai en Die kodering waarvan is ons toegewyde wens?
Vinnig kan die antwoord wees.
FAST se soek-proses sluit in 'n baie bewegende dele, maar een vereenvoudigde siening is dit:
- 'N kruiper lyk vir die inhoud.
- Dit vind inhoud en gee dit aan 'n makelaar wat die bestuur van 'n poel van die dokument verwerkers.
- Broker proses oorhandig dit aan een van die dokument verwerkers.
- Die dokument verwerker analiseer die dokument en via 'n pypleiding, analiseer die bejeezus van die dokument en gee dit af tot 'n indeks bouer tipe.
Op op die skip vinnig, we have a lot of control over the document processing pipeline. We can mix and match about 100 die pyplyn komponente en, baie interessant, we can write our own components. Like I say, FAST is analyzing documents every which way but Sunday and it compiles a lot of useful information about those documents. Those crazy FAST people are clearly insane and obsessive about document analysis because they have tools and/or strategies to REALLY categorize documents.
So … die gebruik van vas, in kombinasie met ons eie persoonlike pyplyn komponent, we can grab all that context information from FAST and feed it back to MOSS. It might go something like this:
- Die dokument word gevoed in vinnig van Moss.
- Normale Crazy-obsessiewe vinnige dokument parsing en kategorisering gebeur.
- Ons eie persoonlike pyplyn komponent val 'n paar van daardie konteks inligting aan 'n databasis.
- 'N proses van ons eie ontwerp lees die konteks inligting, maak 'n paar besluite oor hoe dit mos dokument te pas binne ons IA en merk dit met behulp van 'n web-diens en die voorwerp model.
Natuurlik, geen so 'n outomatiese proses kan perfek wees nie, maar te danke aan die obsessiewe (en moontlik stapelgek-maar-in-'n-goeie-manier FAST mense), ons kan 'n ware gevegte geskiet op 'n werklik effektiewe massa-vrag proses wat doen meer as net 'n SQL databasis vul met 'n klomp van skaars soekbare dokumente.
</einde>