Willkommen im cgboard - classic games Forum! Deine gemütliche Retro Gaming Community. Besuche uns auch im Discord Chat.

[Frage] Kann man von Wiki-Datenbanken Siterips erstellen?
#1
0
Hallo Leute!

Hmm, lang lang ist's her, da hab ich mal versucht für unseren Uploadgott ein Siterip von TheLegacy zu erstellen - was zunächst auch vielversprechend aussah, im Endeffekt aber nicht funktioniert hat.

Also hier mal meine Frage: kann man eine Wiki-Seite rippen? Konkret: mein kleiner Bruder hätte gerne PokéWiki.de als Siterip. Hab's mir mal angeschaut, also wenn man Fan ist ist's tatsächlich ne nette Datenbank.

Wie schaut's aus? Klappt sowas oder kann ich's von vornherein vergessen?

Gruß,
Stephan
Zitieren
#2
0
Ich habe mal gelesen, dass man sich Wikipedia runterladen kann. Ich weiß aber nicht mehr, ob die Funktion irgendwo in der Seite integriert ist, oder ob das vielleicht mit einem Programm erstellt wurde. Deshalb kann ich auch nicht sagen, wie es mit anderen Wiki-Seiten steht.

Auf jeden Fall gibt es Software, die eine Webseite mit allen Unterseiten und was dazu gehört, speichern kann. Das habe ich mal gemacht, vielleicht wäre das ja ausreichend. Falls ich das Programm wiederfinde, sage ich mal bescheid.

EDIT:
So, das habe ich erstmal dazu gefunden:
http://www.httrack.com/
http://www.xaldon.de/
Kannst das ja mal testen, die Bedienung ist hoffentlich nicht zu schwer.
Zitieren
#3
0
ich hab httrack schon einige male benutzt und es hat jedesmal sehr gut funktioniert (forum und standardwebseite).
zum wiki-download kann ich leider keine erfahrungswerte beisteuern.
Zitieren
#4
0
Ich nutze den NetGrabber für sowas. Mit Adobe Acrobat kann man das auch machen. Der erstellt eine PDF-Datei aus der Seite.
PS: Du bist übrigens mein Lieblingsuser in diesem Board!
[Bild: fyz2bla2s5sxc.gif]
Dieser Beitrag wurde nie editiert. Wozu auch... er ist wie immer perfekt und brillant.
Zitieren
#5
0
Zitat:Original von thEClaw
So, das habe ich erstmal dazu gefunden:
http://www.httrack.com/
http://www.xaldon.de/
Kannst das ja mal testen, die Bedienung ist hoffentlich nicht zu schwer.
Zitat:Original von Rocco
ich hab httrack schon einige male benutzt und es hat jedesmal sehr gut funktioniert (forum und standardwebseite).
zum wiki-download kann ich leider keine erfahrungswerte beisteuern.
Für den Siterip von TheLegacy damals hatte ich auch HTTrack benutzt, der allerdings leider nicht richtig funktioniert hat. Von daher hatte ich diese Möglichkeit am ehesten bezweifelt. Wenn man dann bedenkt, dass ich dafür knapp 40 Stunden durchgesogen hab (also den Siteripper mehrere Nächte durchlaufen lassen hab), wär es nur allzu frustrierend, wenn das anschließend wieder nicht klappen würde.

Zitat:Original von Gadler
Ich nutze den NetGrabber für sowas. Mit Adobe Acrobat kann man das auch machen. Der erstellt eine PDF-Datei aus der Seite.
Hmm, die Acrobat Reader Funktion ist in diesem Fall wohl nicht soooo nützlich, da ich schon gerne die Suchfunktion der gerippten Site benutzen würde.

Aber den NetGrabber schau ich mir mal an, danke!
Zitieren
#6
0
Ich glaube am "saubersten" wäre es, eine echte Datenbank lokal anhand von den gelesenen Seiten aufzubauen, an die Game-Ids etc. kommt man ja ran, und entsprechende .php-Dateien zu generieren und das ganze auf einem lokalen XAMPP oder LAMPP laufen zu lassen.

Ich frage mich sowieso, da ein großes Interesse an solchen Offline-Datenbanken besteht, warum Seiten wie HOL und The Legacy nicht zumindest die Daten(bank) selbst -gepackt- zum Download anbieten, Screenshots und andere Gimmicks mal außen vorgelassen. Das würde denen meiner Meinung nach sauviel Traffic im Vergleich dazu ersparen, dass zig User versuchen, das ganze per HTTrack und Konsorten komplett zu laden.

Und für Updates auf die Datenbank könnte man Differenz-SQL-Skripte generieren. Naja, zumindest HOL hat einen Schutz eingebaut, der nach x Seitenaufrufen innerhalb einer bestimmten Zeit Captchas einblendet, eine Offline-Datenbank ist lange angekündigt gewesen, getan hat sich aber seitdem nichts.
[Bild: valid-german.png]
[Bild: logo.gif]
Zitieren
#7
0
Zitat:Original von Feltzkrone
Ich glaube am "saubersten" wäre es, eine echte Datenbank lokal anhand von den gelesenen Seiten aufzubauen, an die Game-Ids etc. kommt man ja ran, und entsprechende .php-Dateien zu generieren und das ganze auf einem lokalen XAMPP oder LAMPP laufen zu lassen.
Öhhhmmm... "Bahnhof bahnhof... bahnhof bahnhof bahnhof bahnhof..."
Also... wenn du Lust hast, kannst du das ja mal für PokéWiki machen! Fröhlich Wink

Zitat:(...) warum Seiten wie HOL und The Legacy nicht zumindest die Daten(bank) selbst -gepackt- zum Download anbieten, Screenshots und andere Gimmicks mal außen vorgelassen. Das würde denen meiner Meinung nach sauviel Traffic im Vergleich dazu ersparen, dass zig User versuchen, das ganze per HTTrack und Konsorten komplett zu laden.
Ja, das wär echt genial - so schwer dürfte das für die Verantwortlichen jawohl nicht sein... Rolleyes

Glaubst du ich kann mir den Siterip per HTTrack/NetGrabber/etc. von vornherein sparen?
Zitieren
#8
0
Lust: Ja, Zeit: Nein. Big Grin

Ich hab ja nur von der "saubersten" Variante gesprochen, die es einem ermöglicht, eine echte lokale Datenbank zu haben und darauf z.B. auch eigene Abfragen abzusetzen, die die Originalpage vielleicht gar nicht vorsieht.

Von daher kann man es ruhig mit HTTrack o.ä. versuchen, nur sollte einem dabei bewusst sein, dass man allein schon aus dem Grund jede Seite dreifach auf die heimische Festplatte kommt, dass es zu jeder Seite eine Druckversion gibt und eine Quelltextversion. Das sorgt dann eben für ordentlich Traffic beim Hoster und Speicherplatzverbrauch bei einem selbst - deswegen sollten die Admins über Dumps nachdenken, wie es sie bei Wikipedia gibt.
[Bild: valid-german.png]
[Bild: logo.gif]
Zitieren
#9
0
Sie Suchfunktionen dürften ja auch nicht funktionieren bei einem einfachen Rip, da das ja Datenbankanfagen sind und man ja garkeine Datenbank gerippt hat, sondern nur jede Seite einzeln.
Wir entwickeln Spiele, schaut mal vorbei: CatBit Software
Zitieren
#10
0
Zitat:Original von SonataFanatica

Ja, das wär echt genial - so schwer dürfte das für die Verantwortlichen jawohl nicht sein... Rolleyes

Du vergisst, dass reiner Content bares Geld wert ist...


Zitat:Glaubst du ich kann mir den Siterip per HTTrack/NetGrabber/etc. von vornherein sparen?

Spars dir. Damit ärgerst du nur die Admins..für nix...
Zitieren
#11
0
http://www.pokewiki.de/Spezial:Exportieren
-> Kategorie eingeben, z.B. "Pokémon"
-> Hinzufügen
-> Seiten expotieren
-> XML in dein MediaWiki laden...
OGND Member seit dem legendären ezboard
Old Games Never Die
[Bild: elefant.gif]
Der Elefant vergisst nie
Zitieren
#12
0
Zitat:Original von Nemu
Du vergisst, dass reiner Content bares Geld wert ist...

Und tolle Software auch... trotzdem gibt es Open Source. Big Grin
[Bild: valid-german.png]
[Bild: logo.gif]
Zitieren


Möglicherweise verwandte Themen…
Thema Verfasser Antworten Ansichten Letzter Beitrag
  [Frage] Von Remote Dinge auf Android-Box laden Antiheld 4 234 10.02.2024, 09:50
Letzter Beitrag: Corsafahrer
  Nachricht von Systemsteuerng?! Socke 15 7.464 19.05.2022, 14:07
Letzter Beitrag: Heinrich Reich
  [Frage] Surfbars / Cash Werbeprogramme von früher Rayman 3 2.744 06.02.2020, 08:54
Letzter Beitrag: Heinrich Reich
  [Problem] kann jemand bitte diese 2 files runterladen K.A.R.R. 2 3.093 16.07.2019, 01:45
Letzter Beitrag: K.A.R.R.
  Auswirkungen von Algorithmen Heinrich Reich 7 5.212 27.04.2019, 08:51
Letzter Beitrag: t-beutel

Gehe zu:


Benutzer, die gerade dieses Thema anschauen: 1 Gast/Gäste