Säg att vi har "neuron" a, b och c i vad vi kallar lager i.
I lager två har vi "neuroner" av en annan typ där vi har en st som opererar på tillståndet / utvärdet / jämförbart från nod a och b. En som gör det nod a och c. O.s.v. i alla möjliga kombinationer föregående lager.
Vi väljer nu att sluta kalla neuronerna av typ två för neuroner. Istället kallar vi dem relationer / anslutningar. Och knoppar av vårt utvärde som vad vi sorterar utifrån någon eller båda neuroner de utnyttjar i föregående lager.
Varje sådan relation uttryckande / lärande sig mest nära tillhands att tänka sig korrelationen mellan dem ev. under en verklighet någonstans i andra lager efter oss önskat.
Givetvis kan man införa en tredje sorts neuron som hanterar en bunt tänkbara relationer till neuroner bakom dem abstraherat som samlat där. Kanske rent av mer naturligt om ens bas-datatyp är matris i Matlab, matematiken, eller jämförbart. Medan som skissat innan känns tror jag mer naturligt om vi tänker oss preferens i graf-datatyper och representationer.
Jag tror också att det kanske oftare är mer uppenbart vad den första strukturerings-typen egentligen gör. Samlar korrelation mellan två stycken saker. Vilket vi givetvis kan göra också per position i resp. ex. tillståndsvektor där. O.s.v.. Än när abstraktionen är en kallad neuron där en mängd sådana anslutningar via vikter i en matris mer "gömt" via gradient descent typiskt lär sig resp. vikt anslutnings-kombinationer.
Men jag har å andra sidan aldrig upplevt neuronnät som typiskt uttrycka naturliga för mig. Backpropagation tycker jag är en vettig inte helt ovanlig värdefull primitiv som jag förövrigt flera gånger använt utan att tänka på att det är samma sak som backpropagation. En bra ofta antagen mer magisk - och ovanpå det inlärning man helt unikt valt att kalla gömd för mellan-lager i neuronnäten emedan vi varken i hårdvara eller mjukvara pratar om gömda delstegment annars - men kan inte för allt i världen förstå hur man annat än att rita om ett neuronnät kan se hur och var det bygger sin korrelation. Jag kan ej visualisera mentalt som neuronnät men däremot grafer.
Korrelation mellan givet sorterade datakanaler, resp. och / eller positioner data där, och / eller positioner och datakanaler i varje kombination. Ev. abstraherat mer kämpat kanske tydliga kanaler eller tidsförskjutningar i korrelationer mellan korrelationer etablerade mellan kombinationer redan. Så som vad som händer tid i i mening korrelations-skattande till tiden i, och vad helst som uttrycker sig och vi önskar. Väldigt vanliga koncept i mängd varianter för en ej nod-bred värld i sådant som stokastiska processer, wiener processer m.m. Sedan är självklart begrepp som Deep Neuronnets helt icke-specifika. Medan koncept som Wienerprocesser tor jag har väldigt stor preferens att just göra operationer mellan "lager" (d.v.s. ett 1-dim. värde vid dag A, ett vid dag B, någon vikt kombinerande dem vid värdet idag o.s.v.) betraktade gärna som diskreta tidpunkter. Jag vågar ej riktigt stanna på egen-konvergens av att förstå koncepten Deep här som i princip vara processer över vad vi kan se ligga i vilken som helst preferens representation graf- / neuronnät / rörsystem för vatten-transport / eller vad helst nästan enligt tidigare. Det är väl kanske tecken på att det oavsett vad konceptet är i övrigt ej egentligen är mer resonemangs-optimerat än ANN var. Vill man ha magi man klarar att acceptera idag - och kanske rationellt stimulerande en del bra blackbox-tänk - är kanske representationer så som uttryckta i neuronnät kontra mer begripliga som är exakt samma sak.