Beitrag von Thomas Fedder (333 Beiträge) am Donnerstag, 22.Juni.2006, 17:37.
Lösung des Problems ?
Hi,
ich fange mal einen neuen Thread an.
Wenn ich das richtig verstanden habe:
Wenn viele Leute gleichzeitig auf unsere Homepage/einzelne BP Seiten/einzelne PHP Seiten zugreifen, kann es lange dauern, weil bei jedem Aufruf die Daten mit get vom fremden Server (www.ratingen.de) eingelesen werden.
Was empfehlt ihr mir?
Die eingelesenen Daten sind Standard Vorlagen wie kopf, Menu oder Fuss.
Ich will diese eigentlich nicht doppelt lagern, einmal auf www.ratingen.de und einmal auf www.stadtratingen.de.
Danke
Antworten
Beitrag von Claus (4645 Beiträge) am Donnerstag, 22.Juni.2006, 17:42. WWW: jobmarder.de
Re: Lösung des Problems ?
mach das im Frameset oder bau es direkt in die Seiten ein. Hatte mit beiden Varianten noch nie Probleme und musste mich daher nie mit lookups, Ladezeiten usw. auseinandersetzen.
Vielleicht bieten Dir ja die Experten noch was an.
Gruß
Claus
Antworten
Beitrag von Thomas Fedder (333 Beiträge) am Donnerstag, 22.Juni.2006, 17:44.
Re: Lösung des Problems ?
Hi,
mal auf die Experten warten.
Frameset kommt wg. barriererfreier Internetseiten nicht in Frage (gesetzliche Verpflichtung für Stadtseiten)
Von einbauen halte ich nichts, da ich dann alle!! Template bei Korrekturen ändern müßte!
Danke trotzdem
Antworten
Beitrag von Pouraga (1396 Beiträge) am Donnerstag, 22.Juni.2006, 17:42.
Re: Lösung des Problems ?
Entweder muss du dich damit abfinden das du es doppelt machen musst, oder hole es einmal täglich ab und speicher es in ne datei/datenbank zwischen. Das jeder Seitenaufruf weitere http anfragen von server zu server verursacht ist denkbar unschön gelösst meiner meinung nach. Egal woran das jetzt hängt.
Antworten
Beitrag von Pouraga (1396 Beiträge) am Donnerstag, 22.Juni.2006, 17:48.
Re: Lösung des Problems ? gegenbeispiel
Anekdote am rande: Ich habe ne seite dort gibt es einen Knop in der andministration der ca 100 links einer linkliste holt und überprüft und dann ausspuckt welche seite vermutlich nicht exestiert. Bevor er das macht wird der user drauf hingewiesen das er sich ruhig nen kaffe holen kann und auf keinen fall reload drücken soll wenn die seite nicht sofort kommt... laufzeiten weit über 20 sekunden sind normal... Manchmal kann man es nicht anders machen, aber wenn du die wahl hast wie jetzt...
Antworten
Beitrag von Pouraga (1396 Beiträge) am Donnerstag, 22.Juni.2006, 18:06.
Re: Lösung des Problems ? gegenbeispiel
Die premium lösung währe natürlich wenn der server auf dem die quellen liegen, dem zweiten mitteilt sobald sich die daten ändern. Aber das ist sicherlich ein grösser Programmieraufwand. Und auch nur schön möglich wenn sie sich durch ein script geändert werden oder durch andauernde überprüfung duch ein script.... (ich denke nur drüber nach)
Antworten
Beitrag von Christoph Bergmann (8110 Beiträge) am Donnerstag, 22.Juni.2006, 18:40.
Re: Lösung des Problems ? - ist doch schon gelöst...
Also das Problem von gestern ist mit dem DNS-Cache den Martin eingerichtet hat doch gelöst...
Eine allgemeine "beste" Lösung für das ganze Thema gibt es allerdings nicht, das hängt davon ab wie oft die Seite die holt aufgerufen wird und wie oft die Daten die geholt werden geändert werden...
Die grundlegende Frage die sich mir stellt, ist wieso das überhaupt auf unterschiedlichen Servern liegen muss, scheint sich ja um dieselbe Seite zu handeln... Das würde ich versuchen zu vermeiden, wenn das aus hier noch unbekannten Gründen nich möglich ist, würde ich ein Skript schreiben, was z.b. 1-Mal täglich die Daten von einem auf den andern Server schiebt... Wenn sich die Daten aber laufend alle paar Minuten ändern, dann gehts garnicht anders...
Antworten
Beitrag von Thomas Fedder (333 Beiträge) am Donnerstag, 22.Juni.2006, 19:31.
Re: Lösung des Problems ? - ist doch schon gelöst...
Hi,
die Daten liegen auf zwei Servern:
1) www.ratingen.de für die statischen Seiten
2) wwww.stadtratingen.de für die BP Seiten den Seiten, bei denen ich mit PHP arbeite (z.B. was von www.ratingen.de includieren)
Das includieren mit PHP auf www.ratingen.de funktioniert nicht, weil diese Funktion dort abgeschaltet ist.
Möglicherweise ziehen wir nach und nach mit Angeboten auf www.stadtratingen.de um, aber das wird dauern (Wir haben incl. BP über 3500 Seiten in der Homepage).
Es gibt schon fest benannte Dateien, die sich idR nicht ändern.
All diese Dateien liegen in einem festgelegten Ordner auf www.ratingen.de
Mal angenommen, ich hätte so ein Script und würde hätte die Daten auf www.stadtratingen.die liegen: Wie würde ich die dan in BP einbinden? Auch mittels get? Wäre das denn schneller und würden dann keine Performance Probleme mehr auftreten?
Falls ja, wer würde uns so ein Script schreiben und wie teuer würde es ungefähr werden?
DANKE
Antworten