M
milius.net
tail /var/log/geek
hallo,
muss zur regelmässigen kontrolle/reparatur einiger datenbanken per crontab ein paar .php urls aufrufen - wie mache ich das am besten?
* die aufgerufenen dateien sollen weder gespeichert werden noch ist die ausgabe/output des scriptes relevant...
* und eigentlich liegen die scripte sogar lokal bereit, ich rufe sie aber über http ab weil es mir zur zeit am einfachsten erscheint ...
funktioniert sehr gut, hinterlässt aber sehr viele abgespeicherte dateien (script.php1, script.php2 etc) deshalb hier folgende fragen:
- gibt's wget mit no-save? :ugly:
- wie geht's mit lynx? (also http:// aufruf, dann quit ...)
- wie kann man mit lynx alle 15 minuten 5 (+) urls aufrufen?
- muss ich dazu 5x lynx aufrufen oder kennt/kann lynx batch? (falls ja, wie geht's?)
- oder doch ganz anders? welche soft/progs/commands benutzt ihr dazu?
danke für alle! antworten...
muss zur regelmässigen kontrolle/reparatur einiger datenbanken per crontab ein paar .php urls aufrufen - wie mache ich das am besten?
* die aufgerufenen dateien sollen weder gespeichert werden noch ist die ausgabe/output des scriptes relevant...
* und eigentlich liegen die scripte sogar lokal bereit, ich rufe sie aber über http ab weil es mir zur zeit am einfachsten erscheint ...
PHP:
crontab:
*/15 * * * * wget http://www.milius.net/script_repair.php >/dev/null
- gibt's wget mit no-save? :ugly:
- wie geht's mit lynx? (also http:// aufruf, dann quit ...)
- wie kann man mit lynx alle 15 minuten 5 (+) urls aufrufen?
- muss ich dazu 5x lynx aufrufen oder kennt/kann lynx batch? (falls ja, wie geht's?)
- oder doch ganz anders? welche soft/progs/commands benutzt ihr dazu?
danke für alle! antworten...