netzsuchen.de | Ergebnisse im Netz · schwarz auf weiss

© 2013 | 2014 | 2015 | 2016

 

 

 
D e r   u n a b h ä n g i g e   B o t   i m   N e t z
 
 

     Alle bisherigen Admin News    
 


Funktionsweise des Bots

Grundsätzliche Funktionsweise des Bot’s

Der Datenbestand der Suchmaschine (im Folgenden auch als Bot benannt) baut sich vollautomatisiert auf. Dies gilt jedoch nicht für die hier im Netz einsehbare Demonstrationsplattform netzsuchen.de, da diese einem täglichen Reset des kompletten Datenvolumens unterzogen wird!

Die Menge der täglich indexierbaren Daten hängt von den Einstellungen des Systemadministrators, der Serverleistung sowie den Einstellungen der angelegten Cronjobs ab. Eine erste Prognose liefert Ihnen die im Web verfügbare Statistik.

Der bot ist ein vollkommen automatisierter Suchbot, der im Internet etablierte Webseiten sucht und nach einer vordefinierten und lernfähigen Logik auf deinem Bildschirm listet.

Hierbei wird Wert darauf gelegt, (Urheber)rechte von gesichteten Webseiten zu wahren und deren sichtbaren Webseitencontent nicht über den Bot anzuzeigen.

Der Bot agiert autark und ist unabhängig von anderen Suchmaschinen sowie i.d.R. ebenso von jeglichen Diensten Dritter.

Der Bot verwendet auf eigenen (Content)seiten von Zeit zu Zeit Bild(er)- und Textelemente, die eventuell dem Urheberrecht und Copyright Dritter unterliegen. Soweit ein Bild/Text nicht von eigenen und/oder hierfür beauftragten Fotografen, Textern und/oder Webdesignern erstellt wurde, finden Sie jeweils urheberrechtliche Informationen solcher von uns verwendeter Grafiken, Abbildungen, Bilder, Fotografien und Texte an entsprechender Stelle. Weiterführende Informationen zu Copyrights sind in der Webseite unter der entsprechenden Rubrik ausgewiesen.

Sekündlich werden vom Bot URL's im Internet besucht, um deren Zuordnung nach verschiedenen Suchkriterien zu sichten. Es handelt sich um einen vollkommen automatisierten Suchbot (Robot), dessen Suchergebnisse i.d.R. nicht von Menschen moderiert werden.

Er besteht aus vielen ineinander greifenden Scripten, die in langjähriger Programmierarbeit modular erstellt und letztlich zu einem System zusammengeführt wurden.

Der Suchrobot arbeitet im Wesentlichen sehr einfach:

Es wird vom User ein Suchwort oder eine Suchwortkette eingegeben.

Der Robot sucht nun zuerst, ob er zur Abfrage passende Treffer zeigen kann.

Soweit dem nicht so ist, macht der Robot sich mittels einer Tunnelprogrammierung auf und sucht nach einigen ersten Resultaten zur Suchanfrage (hierzu kann man im Adminbereich optional mögliche Suchdienste oder externe Webseiten anlegen, die es dem Bot ermöglichen, sich schnell von Zeit zu Zeit einmal auf eine Parallelsuche zu begeben).

Der Robot vermerkt sich jeweils vorangegangene Suchanfragen, für die er bisher noch keine Ergebnisse liefern konnte und sucht innerhalb der darauf folgenden Stunden und Tage fortwährend nach neuen Resultaten, die er bei der nächsten gleichen oder ähnlichen Suchanfrage zeigen kann. Ebenso versucht er durch verschiedenste Logiken, eigene Domains und somit Start- und Trefferpunkte zu kreieren, die eventuell für die Suchabfrage hätten dienlich sein können. Der Robot sucht daher auch nach „fiktiven“ Ergebnisseiten, die mittelfristig Treffer liefern könnten.

Er ist kontinuierlich in (technischer) Bewegung und sucht jede Minute - sogar jede Sekunde (u.a. abhängig von den Cronjobeinstellungen) - immer weiter; dies ohne ein Enddatum, bis in alle Ewigkeit! Auf diese Art und Weise wächst langfristig die Anzahl künftiger Treffer und Trefferquoten.

Der Datenbestand kann somit innerhalb von nur einer Woche im Realbetrieb sowie bei Einstellung von niedrigster bis mittlerer Serverseitigen Systemressourcennutzung i.d.R. schnell auf eine halbe Million Treffer oder mehr!

Dies alles resultiert aus der Funktionsumgebung des Robots, indem er Webseiten besucht, für sich als mögliche künftige Trefferseite vermerkt und weiterhin auch nachschaut, welche fortführenden Empfehlungen zu den gefundenen Webseiten bestehen, da auch diese für künftige Treffer relevant sein könnten. Nach diesem groben Schema besucht der Robot empfohlene Webseiten und ebenso wieder deren Empfehlungen - usw..

Er erlangt somit auf Dauer gesehen einen unendlichen Datenbestand. Allein die Technik der Serverumgebung(en) wird dies jemals stoppen können, was wir jedoch zum heutigen Zeitpunkt noch nicht hoffen wollen.

Treffervorschläge sucht und zeigt der Bot i.d.R. gezielter als viele andere Suchdienste, da der Robot nicht inhaltsbasiert (Content) arbeitet, sondern i.d.R. versucht, Webseiten zu finden, die anhand von Suchbegriffen einer Gesamtthematik zuzuordnen sind. Als Beispiel wäre zu nennen, dass bei der Suche nach - z.B. einem Politiker - keine Ergebnisse aus Shop- und Auktionssystemen angezeigt werden, auf welchen man bedruckte T-Shirts mit dem Politikerfoto bestellen kann. Vielmehr liefert er Treffer, die sich im Falle unseres Beispiels eindeutig mit Politik und auch mit der Person des gesuchten Politikers beschäftigen (diese „Filteroptionen“ sind optional einstellbar.

Ebenso werden über eine Sperrworttabelle, die der Betreiber der Suchmaschine editieren und pflegen kann, Kriterien und Sperrworte festgelegt, zu welchen Webseiten wieder aus dem eigenen Datenbestand entfernt/deaktiviert werden sollen.

Links an "erster" Stelle:

Der Bot führt neben der "normalen" Suchfunktion einige interessante Kategorien, in welchen im Internet etablierte Webseiten nach einer vordefinierten und lernfähigen Logik auf dem Bildschirm gelistet werden. Weiterhin sind zusätzliche Wikipedia-Treffer in den PHP-Scripten manuell an- und abschaltbar.

Viele andere weitere Möglichkeiten und Features des Bots sehen Sie im Internet unter der Option Map bzw. Sitemap.

Der Bot setzt u.a. Funktionalitäten ein, die ebenso aus eigener Softwareproduktion stammen, um somit fast vollständig autark zu agieren. Derartige Fragmente der Softwareproduktionen möchten wir daher Webmastern und Internetusern frei zugänglich machen und somit zur kostenlosen Einflechtung anbieten.

Die Scripte sind i.d.R. kompatibel mit gängigen Browsertypen.





Kauf des Bots nun möglich

Diese(r) Suchmaschine/Suchbot steht als Script zum Verkauf bereit. Der Datenbestand des Bots baut sich vollautomatisiert auf. Täglich wird der indexierte Datenbestand entfernt und der Bot von Neuem gestartet, da es sich bei netzsuchen.de um eine Demonstration handelt! Im Regelbetrieb baut sich der Datenbestand jedoch kontinuierlich weiter auf und wird nicht rückgesetzt. Die Menge der täglich indexierbaren Daten hängt von den Einstellungen des Systemadministrators sowie der Serverleistung ab. Bei Interesse eines Kaufs des Suchmaschinescriptes kontaktieren Sie uns bitte. Wir senden Ihnen sodann gerne einen Link zum Bezug des Bots ...





TESTVERSION - Bitte Hinweise beachten

Die Installation der Suchmaschine netzsuchen.de stellt ausschließlich eine Testversion dar. Dies bedeutet, dass in der Testversion der Datenbank jeweils nur am aktuellen Tag (1 Tag) erfasste und indexierte Daten zu ersehen sind. Dies betrifft natürlich auch die verfügbaren statistischen Auswertungen dieser Test-Suchmaschine, da der Datenbestand des Bots täglich einem kompletten Reset unterzogen wird, da es sich um eine Demonstrationsplattform des Suchmaschinenscriptes handelt!







Soweit du die letzten (aktuellsten) 5 Admin News lesen möchtest, kannst du dies gerne jederzeit » hier


 

 
    
 

Startseite  |  Impressum  |  Nutzungsbedingungen  |  Mehr  |  Map