Överbliven Sygate NAS transformerad till dedikerad sever för att spara ner från internet

2015-07-22

Jag hade räknat med för denna NAS (Network-attached storage) att tvingas bygga om en del kanske allt på enheten. Och planerande en del för det kontrollerade jag löst möjligheter och det i sig verkade inte omöjligt. Linux variant identifierade sig utan problem:



Dessutom hittade jag enstaka exempel från personer som gjort lyckade kompileringar till den adderande in i diverse Sygate-lösningar körande systemet.


Emellertid såg jag att den hade en basal wget och prövade därför följande variant utnyttjande en omvandling av en normal lista med adresser att sampla till en stort shell script (wget varianten stödde ej -i flaggan för fil och dess perl-installation verkade också lätt begränsad och även om ej kanske problematiskt begränsad för att slippa exportsteget valde jag bort det alternativet).


echo "_URL [TAB] http://www.disastermilitarymedicine.com/manuscript//mostviewed/rss/" >> aa
echo "" >> aa
wget -U dummy_wget "http://www.disastermilitarymedicine.com/manuscript//mostviewed/rss/" -O - >> aa
echo "" >> aa
echo "___________________________________________________________________________________" >> aa
echo "" >> aa

Vilket kör utan tycks det några märkbara problem annat än att det av och till irriterar effektivitet att wget-varianten ej tillät att ställa in timeout.



Att komplettera med nästa gång

Förutom timeout kvar att lösa (ev. kompilerande en bättre wget?) ligger hela området jag vill kalla nohup. För startade jag processer som ej normalt skulle dö med skalet de startades från men det var ju 100 år sedan.


Kanske är det fortfarande nohup men sundare lämnade jag det till nästa "version" av det där jag tänker mig kontrollera lite för aktuellt OS här. Ev. även om jag gärna låter bli kanske man skulle lägga det till en tjänst som kan startas och stoppas via övergripande webb-gränssnitt till NAS-enheten.


Ev. finns nohup frågan löst i:



Slutligen vad jag direkt vet att kontrollera till närmaste modifikationen av enheten är en kontroll av hur väl den hanterar i engelskan lite mer udda tecken när de förekommer i motsvarande "html-innehåll" som sparats ner. Huuvdsakligen tänker jag på innehåll under toppdomänerna .cn och .jp.


Hur bra är NAS-enheten när det gäller kraven på hårdvara?

För ingen normal användning jag kan föreställa rörande den här typen av sampling kommer processor-kraften märkas som en begränsning för något jag har hemma. Bara för att hämta data't utan att göra någon bearbetning på enheten är kraven obefintliga.


Så länge endast ett fåtal varianter vi såg ovan körs samtidigt kan jag heller inte föreställa mig att någon som helst problematik med minne finns.


Hastighetsbestämmande med nätet är nu internet snarare än vad den klarar rörande sådant upp till.


D.v.s. huvudsakligen kommer det ner till möjlighet att lagra informationen rsp. gärna att den hanterar lagringar halv-smart i alla fall (ej välja att stänga ner sig utan att via ev. legacy-lösningar för prestanda gjort sync på filerna - Vi kan dock notera att tänkbart gjors motsvarande en sync för varje rad i script-filen): Och detta är nu vad en enhet av denna typ byggdes för att göra. Spekulativt kan några sådana här script köra upp till ett år om ej överdrivet många redundanta stora nedladdning görs utan att det självklart uppstår något problem med att lagringsutrymme börjar ta slut.


I det försiktiga startade jag upp den emellertid upp till cirka 55 000 url:er att kontrollera. Så kan processen som hämtar den push:a och starta upp nya processer utifrån indikationer om dns-fel, ev- felaktigt extrahera eller föråldrade url:er o.s.v.