Beiträge: 26.593
Themen: 1.329
Registriert seit: 05.05.2006
0 Hallo Leute!
Hmm, lang lang ist's her, da hab ich mal versucht für unseren Uploadgott ein Siterip von TheLegacy zu erstellen - was zunächst auch vielversprechend aussah, im Endeffekt aber nicht funktioniert hat.
Also hier mal meine Frage: kann man eine Wiki-Seite rippen? Konkret: mein kleiner Bruder hätte gerne PokéWiki.de als Siterip. Hab's mir mal angeschaut, also wenn man Fan ist ist's tatsächlich ne nette Datenbank.
Wie schaut's aus? Klappt sowas oder kann ich's von vornherein vergessen?
Gruß,
Stephan
Beiträge: 7.357
Themen: 130
Registriert seit: 13.07.2006
0 Ich habe mal gelesen, dass man sich Wikipedia runterladen kann. Ich weiß aber nicht mehr, ob die Funktion irgendwo in der Seite integriert ist, oder ob das vielleicht mit einem Programm erstellt wurde. Deshalb kann ich auch nicht sagen, wie es mit anderen Wiki-Seiten steht.
Auf jeden Fall gibt es Software, die eine Webseite mit allen Unterseiten und was dazu gehört, speichern kann. Das habe ich mal gemacht, vielleicht wäre das ja ausreichend. Falls ich das Programm wiederfinde, sage ich mal bescheid.
EDIT:
So, das habe ich erstmal dazu gefunden:
http://www.httrack.com/
http://www.xaldon.de/
Kannst das ja mal testen, die Bedienung ist hoffentlich nicht zu schwer.
Beiträge: 2.548
Themen: 173
Registriert seit: 21.06.2005
0 ich hab httrack schon einige male benutzt und es hat jedesmal sehr gut funktioniert (forum und standardwebseite).
zum wiki-download kann ich leider keine erfahrungswerte beisteuern.
Beiträge: 19.110
Themen: 608
Registriert seit: 24.01.2006
0 Ich nutze den NetGrabber für sowas. Mit Adobe Acrobat kann man das auch machen. Der erstellt eine PDF-Datei aus der Seite.
PS: Du bist übrigens mein Lieblingsuser in diesem Board!
Dieser Beitrag wurde nie editiert. Wozu auch... er ist wie immer perfekt und brillant.
Beiträge: 26.593
Themen: 1.329
Registriert seit: 05.05.2006
0 Zitat:Original von thEClaw
So, das habe ich erstmal dazu gefunden:
http://www.httrack.com/
http://www.xaldon.de/
Kannst das ja mal testen, die Bedienung ist hoffentlich nicht zu schwer.
Zitat:Original von Rocco
ich hab httrack schon einige male benutzt und es hat jedesmal sehr gut funktioniert (forum und standardwebseite).
zum wiki-download kann ich leider keine erfahrungswerte beisteuern.
Für den Siterip von TheLegacy damals hatte ich auch HTTrack benutzt, der allerdings leider nicht richtig funktioniert hat. Von daher hatte ich diese Möglichkeit am ehesten bezweifelt. Wenn man dann bedenkt, dass ich dafür knapp 40 Stunden durchgesogen hab (also den Siteripper mehrere Nächte durchlaufen lassen hab), wär es nur allzu frustrierend, wenn das anschließend wieder nicht klappen würde.
Zitat:Original von Gadler
Ich nutze den NetGrabber für sowas. Mit Adobe Acrobat kann man das auch machen. Der erstellt eine PDF-Datei aus der Seite.
Hmm, die Acrobat Reader Funktion ist in diesem Fall wohl nicht soooo nützlich, da ich schon gerne die Suchfunktion der gerippten Site benutzen würde.
Aber den NetGrabber schau ich mir mal an, danke!
Beiträge: 619
Themen: 26
Registriert seit: 31.03.2004
0 Ich glaube am "saubersten" wäre es, eine echte Datenbank lokal anhand von den gelesenen Seiten aufzubauen, an die Game-Ids etc. kommt man ja ran, und entsprechende .php-Dateien zu generieren und das ganze auf einem lokalen XAMPP oder LAMPP laufen zu lassen.
Ich frage mich sowieso, da ein großes Interesse an solchen Offline-Datenbanken besteht, warum Seiten wie HOL und The Legacy nicht zumindest die Daten(bank) selbst -gepackt- zum Download anbieten, Screenshots und andere Gimmicks mal außen vorgelassen. Das würde denen meiner Meinung nach sauviel Traffic im Vergleich dazu ersparen, dass zig User versuchen, das ganze per HTTrack und Konsorten komplett zu laden.
Und für Updates auf die Datenbank könnte man Differenz-SQL-Skripte generieren. Naja, zumindest HOL hat einen Schutz eingebaut, der nach x Seitenaufrufen innerhalb einer bestimmten Zeit Captchas einblendet, eine Offline-Datenbank ist lange angekündigt gewesen, getan hat sich aber seitdem nichts.
Beiträge: 26.593
Themen: 1.329
Registriert seit: 05.05.2006
0 Zitat:Original von Feltzkrone
Ich glaube am "saubersten" wäre es, eine echte Datenbank lokal anhand von den gelesenen Seiten aufzubauen, an die Game-Ids etc. kommt man ja ran, und entsprechende .php-Dateien zu generieren und das ganze auf einem lokalen XAMPP oder LAMPP laufen zu lassen.
Öhhhmmm... "Bahnhof bahnhof... bahnhof bahnhof bahnhof bahnhof..."
Also... wenn du Lust hast, kannst du das ja mal für PokéWiki machen!
Zitat:(...) warum Seiten wie HOL und The Legacy nicht zumindest die Daten(bank) selbst -gepackt- zum Download anbieten, Screenshots und andere Gimmicks mal außen vorgelassen. Das würde denen meiner Meinung nach sauviel Traffic im Vergleich dazu ersparen, dass zig User versuchen, das ganze per HTTrack und Konsorten komplett zu laden.
Ja, das wär echt genial - so schwer dürfte das für die Verantwortlichen jawohl nicht sein...
Glaubst du ich kann mir den Siterip per HTTrack/NetGrabber/etc. von vornherein sparen?
Beiträge: 619
Themen: 26
Registriert seit: 31.03.2004
0 Lust: Ja, Zeit: Nein.
Ich hab ja nur von der "saubersten" Variante gesprochen, die es einem ermöglicht, eine echte lokale Datenbank zu haben und darauf z.B. auch eigene Abfragen abzusetzen, die die Originalpage vielleicht gar nicht vorsieht.
Von daher kann man es ruhig mit HTTrack o.ä. versuchen, nur sollte einem dabei bewusst sein, dass man allein schon aus dem Grund jede Seite dreifach auf die heimische Festplatte kommt, dass es zu jeder Seite eine Druckversion gibt und eine Quelltextversion. Das sorgt dann eben für ordentlich Traffic beim Hoster und Speicherplatzverbrauch bei einem selbst - deswegen sollten die Admins über Dumps nachdenken, wie es sie bei Wikipedia gibt.
Beiträge: 2.827
Themen: 101
Registriert seit: 25.09.2005
0 Sie Suchfunktionen dürften ja auch nicht funktionieren bei einem einfachen Rip, da das ja Datenbankanfagen sind und man ja garkeine Datenbank gerippt hat, sondern nur jede Seite einzeln.
Beiträge: 7.962
Themen: 733
Registriert seit: 24.10.2002
0 Zitat:Original von SonataFanatica
Ja, das wär echt genial - so schwer dürfte das für die Verantwortlichen jawohl nicht sein...
Du vergisst, dass reiner Content bares Geld wert ist...
Zitat:Glaubst du ich kann mir den Siterip per HTTrack/NetGrabber/etc. von vornherein sparen?
Spars dir. Damit ärgerst du nur die Admins..für nix...
Beiträge: 2.157
Themen: 91
Registriert seit: 26.02.2004
Beiträge: 619
Themen: 26
Registriert seit: 31.03.2004
0 Zitat:Original von Nemu
Du vergisst, dass reiner Content bares Geld wert ist...
Und tolle Software auch... trotzdem gibt es Open Source.
|