W ramach prowadzonej działalności, przygotowaliśmy moduły oprogramowania do gromadzenia i przetwarzania danych internetowych.
Do gromadzenia informacji zaimplementowaliśmy tzw. crawlery – czyli oprogramowanie, które w odpowiednio zaprogramowany sposób przemierza sieć Internet i gromadzi informacje.
Cechami tego oprogramowania jest duża możliwość konfiguracji kryteriów przemieszczania się po sieci Internet, oraz sposobu przetwarzania i zapisu lokalnie pozyskanych danych internetowych.
Ta technologia ma m.in. możliwości masowego odpytywania wiodących wyszukiwarek internetowych (np. Google) w celu pozyskiwania adresów WWW serwisów internetowych do crawlowania informacji.
Na rzecz „obróbki” zgromadzonych informacji, rozwijamy komponenty do:
• Walidacji danych – sprawdzenia poprawności
• Korekcji informacji – automatycznej ich poprawy
• Standaryzacji – korekcie wg wybranych standardów
• Wzbogacania – uzupełniania danych o informacje pochodzące z zewnątrz