Wikibooks:Elenchi generati offline

Wikibooks, manuali e libri di testo liberi.
Jump to navigation Jump to search

Questa pagina serve per coordinare gli elenchi di pagine da generare offline a partire da una copia del database di it.wikibooks. Lo stesso server di download consente di prelevare aggiornamenti periodici degli archivi (detti dump) di tutti i progetti Wikimedia.

Nota per chi vuole generare degli elenchi: A volte le tabelle dei link contengono diversi errori, per cui è consigliabile ricostruirle. Le istruzioni si trovano in fondo a questa pagina.

Richieste[modifica]

  • Se vuoi fare una richiesta scrivi qui.

Elenchi[modifica]

Gli elenchi vanno in sottopagine di questa pagina. Si dovrebbe sempre inserire la query con cui si è ottenuto l'elenco nell'intestazione della pagina, per consentire agli altri utenti:

  • di aggiornare periodicamente i dati
  • di controllare la correttezza del metodo
  • di sviluppare altri elenchi simili.

Si consiglia di eliminare man mano le pagine sistemate dagli elenchi, in modo da semplificare la collaborazione.

  1. Accentate HTML
  2. Center
  3. Copertine
  4. Discussioni anonime scadute
  5. Discussioni sole
  6. Immagini senza testo alternativo
  7. Libri
  8. Libri non linkati nei ripiani
  9. Libri senza alfabetico
  10. Libri senza categorie di Dewey
  11. Libri senza avanzamento
  12. Libri senza copertina
  13. Moduli senza categoria del libro
  14. Perché
  15. Redirect orfani
  16. Ricette senza redirect
  17. Sottopagine in ns0 senza pagina principale
  18. Tag font
  19. Tag sostituibili
  20. Titoli con due punti

Come generare un elenco[modifica]

# portarsi nella cartella maintenance di mediawiki; il percorso /var/www/htdocs dipende dal web server in uso
cd /var/www/htdocs/mediawiki/maintenance/
# scaricare l'ultimo dump
wget http://download.wikipedia.org/wikibooks/it/pages_current.xml.bz2
# importare i dati
# questa operazione può durare un po' di tempo
bunzip2 pages_current.xml.bz2 | php importDump.php
Note
  • Lo script di importazione importDump.php è molto lento. Si consiglia l'uso dell'applicazione Java MWDumper che è sensibilmente più veloce.
  • Alcune delle query negli elenchi di sopra sono obsolete. A partire dalla versione 1.5 di MediaWiki la tabella cur non esiste più, i dati delle voci sono distribuiti nelle tre tabelle page, revision e text.

Ecco come ottenere, con una query MySQL, il testo di una voce partendo dal titolo della stessa:

SELECT old_text FROM text
  JOIN revision ON old_id=rev_text_id
  JOIN page ON rev_page=page_id
  WHERE page_title LIKE 'Pagina_principale'
  AND page_namespace LIKE 0;

Ecco invece come ottenere i nomi (già attivi come Wikilink) delle pagine (di tutti i namespace) che rispondono ad una espressione regolare:

SELECT CONCAT("# [[{{subst:#if:{{subst:ns:", page_namespace, "}}|{{subst:ns:", page_namespace, "}}:}}", page_title, "]]") FROM page
  JOIN revision ON page_id=rev_page
  JOIN text ON rev_text_id=old_id
  WHERE old_text REGEXP "miaregex"
  ORDER BY page_title;

Ricostruire la tabella dei link[modifica]

Per ricostruire la tabella dei link, basta usare lo script refreshLinks.php (dopo aver installato MediaWiki e aver importato il dump, chiaramente).

cd /var/www/htdocs/mediawiki/maintenance/
php refreshLinks.php

Si può riavviare lo script dopo un'interruzione con

php refreshLinks.php - - <numero>

dove <numero> è l'ultima ID segnalata dallo script prima dell'interruzione.

Voci correlate[modifica]