Boltzmann-maskinen och distribuerade beräkningsnät

2012-06-17
Man kan se en kanske betydande poäng med Boltzmann-maskinen när man bygger distribuerade beräkningsnät där enheter både ska arbeta väldigt självständigt och synkronisera och dra nytta av varandra. Man gör det ju lätt "rekursivt".

Man kan dock spekulera att entiteter som Microsoft och Google varande två av de aktörer med de största beräkningsnäten kanske ändå väljer andra algoritmer eftersom man också tappar information och i vissa sammanhang (ex. nyheter) tvingas ner till minskade tidsfönster.

Det är dock troligen verkligen en praktisk fråga där man behöver väldigt konkret erfarenhet och tester för att kunna avgöra hur beräkningskostnaderna relativt information fördelar sig. Runt nyhetsanalys tycks det dock för mig att bättre "approximerande" algoritmer finns åtminstone om man beaktar upp till cirka 500 - 1000 hyggliga servrar.