Ho studiato come ingegnere informatico, quindi probabilmente capisco meglio queste cose del giardinaggio in genere.
Provo quindi io a dare una spiegazione semplice, poi casomai mi direte se semplice non è.
Quando facciamo una qualsiasi ricerca su un motore di ricerca come Google o Bing, otteniamo come risultato un elenco di collegamenti a pagine web contenenti le informazioni che abbiamo cercato e/o altre più o meno attinenti.
Ciò è possibile in quanto il motore di ricerca che abbiamo usato ha provveduto a suo tempo a leggere, rileggere, archiviare e riorganizzare ogni giorno le informazioni contenute in miliardi di pagine e siti internet.
Ogni motore di ricerca è composto da più parti (cioè sotto-programmi, software, algoritmi), ognuno con una funzione specifica: leggere, archiviare, creare la pagina con i risultati della ricerca di un utente ecc.
I robots sono la parte del software che si occupa di leggere, una alla volta, le pagine internet che trovano. Scorrono da una pagina all'altra seguendo i collegamenti presenti sulla pagina di partenza come farebbe un essere umano che ci clicca sopra; solo che i robots generalmente (essendo piuttosto stupidi) passano al setaccio ogni collegamento che trovano. Quando capitano su una pagina, la passano alla parte di software che si occupa di archiviare le informazioni contenute, non prima di essersi creati un elenco di collegamenti presenti sulla pagina in modo da sapere quali sono le prossime pagine che dovranno aprire e leggere. Questo viene ripetuto migliaia e migliaia di volte al secondo, per migliaia di pagine.
Ad esempio, se un robot di Google sta leggendo la sezione "Macchine - Meteorologia - Tecniche", aprirà una alla volta le pagine delle discussioni contenute, in modo che il motore di ricerca possa leggerne le informazioni e renderle disponibili per chi (su Google) cerca ad esempio "decespugliatore 2T" oppure "Kakugo, gianninettis, echo".
Il fatto che venga chiesto di dimostrare di non essere un robot (ad esempio scrivendo una parola difficilmente leggibile o riordinando le parti di un'immagine) serve per evitare appunto l'accesso ai robots a pagine, sezioni o servizi di un sito dove sarebbe sconveniente che i robots avessero l'accesso.
Nel caso della registrazione al forum, gli amministratori hanno l'interesse che un robot non possa registrarsi, magari inserendo informazioni a caso, altrimenti si ritroverebbero con 1.000.000 di utenti in più da gestire, la maggior parte dei quali fittizi ed inesistenti. Sarebbe impossibile distinguere quelli umani dai robots. Pensate a quale dispendio di energie ciò comporterebbe se, ad esempio, fosse necessario mandare un'email a tutti ad esempio per invitare a visitare una nuova sezione o per fare un sondaggio, oppure per chiedere l'indirizzo di casa al quale spedire in omaggio i semi della pianta dei 50Euro.
Spero di essere stato abbastanza chiaro; in caso contrario chiedete pure.