I en länk jag hittade i Wikipedia har vi kanske svaret runt Boltzmann-maskinen och Google från Boltzmann-maskinen och distribuerade beräkningsnät:
The Next Generation of Neural Networks | Youtube
Jag vet dock ej säkert eftersom jag inte lade ner energi på att lösa ett problem med ljudet på Ubuntu-installationen av arbetsdatorn. Kanske tittar jag på det senare på nöjesdatorn.
Titeln tycks i alla fall antyda att berör något bredare men länken till den från Boltzmann machine i Wikipedia att det i alla fall har rimlig andel runt Boltzmann-maskinen.
Vi kan också uppmärksamma att Microsoft Research tittat en hel del på dem:
Boltzmann Machines
Men jag har inte borrat Microsoft Research tillräckligt många gånger för att kunna ge en rimlig bedömning av vad antal och typ av artikel här motsvarar i faktiskt betydelse. Inte heller har jag hunnit läsa några av dem.
Boltzmann-maskinen och distribuerade beräkningsnät
Man kan se en kanske betydande poäng med Boltzmann-maskinen när man bygger distribuerade beräkningsnät där enheter både ska arbeta väldigt självständigt och synkronisera och dra nytta av varandra. Man gör det ju lätt "rekursivt".
Man kan dock spekulera att entiteter som Microsoft och Google varande två av de aktörer med de största beräkningsnäten kanske ändå väljer andra algoritmer eftersom man också tappar information och i vissa sammanhang (ex. nyheter) tvingas ner till minskade tidsfönster.
Det är dock troligen verkligen en praktisk fråga där man behöver väldigt konkret erfarenhet och tester för att kunna avgöra hur beräkningskostnaderna relativt information fördelar sig. Runt nyhetsanalys tycks det dock för mig att bättre "approximerande" algoritmer finns åtminstone om man beaktar upp till cirka 500 - 1000 hyggliga servrar.
Man kan dock spekulera att entiteter som Microsoft och Google varande två av de aktörer med de största beräkningsnäten kanske ändå väljer andra algoritmer eftersom man också tappar information och i vissa sammanhang (ex. nyheter) tvingas ner till minskade tidsfönster.
Det är dock troligen verkligen en praktisk fråga där man behöver väldigt konkret erfarenhet och tester för att kunna avgöra hur beräkningskostnaderna relativt information fördelar sig. Runt nyhetsanalys tycks det dock för mig att bättre "approximerande" algoritmer finns åtminstone om man beaktar upp till cirka 500 - 1000 hyggliga servrar.
Prenumerera på:
Inlägg (Atom)