1

Z powodu cholernie czestych padow jednego z systemow wiki z ktorych korzystam (nie, nie atariki :) pomyslalem sobie, ze milo by bylo miec jego mirror. Na pierwszy ogien poszedl wget (tak na wszelki wypadek, gdyby strona padla raz na zawsze - a miala juz kilkumiesieczne pady).
Rozkmnina jest taka: czy da sie i jesli tak, to jak zrobic mirror wiki przy zachowaniu mozliwie duzej ilosci dodatkowych informacji (historia zmian itp.)
Oczywiscie rozwiniete teksty 'napisz se' tez mile widziane (wszak bash nie jest mi obcy).

2 Ostatnio edytowany przez Monsoft (2007-10-27 14:21:54)

Mozna by bylo uzyc rsync no ale musialby on dzialac po obu stronach.

3

Dostep jest wylacznie via httpd i 'tylko to co widac'.

4

wget --recursive --level=100 ;)
nie robi?

5

Robi (teraz tak mam - pisalem przeca). Ale mi chodzi o mirror "przy zachowaniu mozliwie duzej ilosci dodatkowych informacji (historia zmian itp.)"

6

no to napisz do nich niech ci przysla baze i pehapy :)
bo inaczej, majac jak piszesz dostep tylko do 'tego co widac po http' to raczej nic wiecej niz wget -rl sie nie da.

7

A jaki to engine wiki?
Np w mediawiki historia zmian jest normalnie przecież dostępna jako linki, więc wget powinien wszystko chwycić...

: 404. Stopka not found

8

mikey: da sie. nawet po wgecie sie da (zhumanizowanie linkow itepe) tylko, ze to kupa roboty. a stuffu mi raczej nie przysla...
eru: mediawiki. tak, wiem ze wget sporo chwyci ale nie wszystko - chcialbym miec wersje 'dynamiczna' tj z danymi w bazie. pewnie ze da sie flaki wugetowe do sqla wrzucic (jak to zrobilem kiedys ze strona fandala) ale sporo z tym roboty - tym bardziej z mediawiki (fandal ma 'prosta' strone)

mialem nadzieje, ze ktos napisal jakiegos pytongowato-perlowatego skrypta, ktory umie to i owo...