• Hallo Bezoeker, Het is ons opgevallen dat je nog geen bericht gemaakt hebt! Waarom neem je niet even de tijd om jezelf voor te stellen en nieuwe vrienden te maken.

Unraid Topic

jvanhambelgium

Well-Known Member
25 feb 2013
2.675
207
73
Ja zeer interessant, hier ook om elec te besparen.
Vandaar dat ik HA op een pi draai ipv de server.
Die pi blijft 24/24 aan en verbruikt een pak minder.
Nu denk ik er ook aan om eventueel naast HA gewoon ook in te zetten als tijdelijke delen van bestanden... en als downloadservertje..
Wil ik iets sparen verhuisd het dan nr de server.
Ik wil nog andere dingen besparen ook qua elec maar mss moet ik daarvoor apart topic gebruiken.


Dus jij hebt in totaal 20 TB waarvan 18 TB media
Die media wil jij ten alle tijde 24/24 online hebben, of net de resterende 2TB ?

Een kleine zuinige server met 1 SSD Van 5OOGB of 1TB die 24/24 aanstaat bedoel je dan voor bv je HA en andere containers en download ook?
Is dat zo investeren dan?
Een pi en een ssd ?
Ik heb HA ondertussen ook op een dedicated ODROID N2+ draaien waarin ZWAVE +ZIGBEE radio's zitten. Da's afgedekt en werkt superstabiel bij een verbruiken van 6W ongeveer.
Nu ik draai ook geen al te gekke "plugins" op de Odroid en probeer echt te beperken tot zaken gerelateerd aan "home automation" ....Want je hebt voor ALLES wel een plugin/container tegenwoordig ;-)

Goh die media moet eigenlijk niet 24/24 online staan en kan gerust "in gang gezet worden" als ik ze nodig hebt. Heb tegenwoordig ook niet zoveel Plex (remote) kijkers want tja, als je server dan niet 24/24 aan staat ;-)
De "rest" zou dus wel 24/24 moeten bollen, daar staat databases op en daar komt continue databinnen van logs etc. Maar in DISK-capaciteit zou dat perfect op een 1TB SSD kunnen.
Maarja, als je begint te tellen ben je wel wat geld kwijt en voor dat geld kan ik m'n huidige Synology gewoon 24/7 laten draaien voor enkele jaartjes....ZOVEEL geld per jaar kost dat nu ook weer niet....
 

Skank

Well-Known Member
19 feb 2013
18.715
418
98
Earth
Paar vraagjes komen op :)

1.Die odroid heeft zwave en zigbee radio's in... is dat met een usb stick dan ofzo? 2 dan?
2. Waarom dan geen 1 TB ssd aan die odroid? Hoef je ook niet enorm te investeren
3. Zoals je zelf zegt, die media moet niet 24/24 aanstaan, idem hier. Hoe zie je dat dan qua download? (en daar wil ik hier heen). Toch ook op die 1TB ssd en dan verhuizen naar server , of hoe zie je dat.
4. "In gang zetten" wanneer je meda wil zien, bedoel je dan met een wol , of echt fysiek aan gaan zetten. Probleem bij mijn server is dat die WOL niet werkt met de sata expansion card.... Maar om daarvoor gans mn server buiten te gooien, ook te zotte kost.


Edit:
Ik ben hoe langer hoe meer overtuigd om er een grotere ssd aan te hangen aan de pi, en daarop alle addons te draaien.
Zou dan 1TB nemen of zelfs 2TB idd
Stroomverbruik quasi nihil.
Als ik download, heb ik daar alle recente staan.

Steek ik de server aan zou hij kunnen de zaken "overplaatsen" die defintief zijn. (mss kan ik dit nog bepalen door 2 mappen te maken... zijnde de downloads folder en de "te verhuizen" folder.
Bijkomend heb ik dan ook ruimte om bestanden te zetten BV 500GB
Dan heb ik nog +- 1,5 over voor downloads.. das het 3 dubbele van mn cache disk in unraid nu :) meer dan genoeg dus.

Emby op unraid kan dan voor zn media kijken naar 1. unraid map + 2. de mappen op de pi (download en te verhuizen).
 
Laatst bewerkt:

jvanhambelgium

Well-Known Member
25 feb 2013
2.675
207
73
1) Neen de ODROID N2+ is gewoon een SBC (single-board-computer) met eMMC storage in etc en enkele USB-slots. Daarin heb ik vandaag een ConbeeII (zigbee) en AOTEC (Zwave) radio's steken.
2) De Odroid N2+ is hééél klein, geen plek om een SSD in te steken hoor. In theorie zou je via USB een SSD eraan kunnen hangen, maar ik heb 64GB wat meer dan genoeg plek is voor hetgeen hij dient, een HA-installatie.
3) Als je een 1TB SSD heb kan je perfect daarop downloaden + uitpakken en daarna "moven" naar je server en dan wat cleanup. Kwestie van effe goed overzicht te maken wanneer wat moet gebeuren. Nu dat volledig automatisch liggen downloaden heb ik eigenlijk nooit echt veel gedaan dus echt ervaring heb ik er niet mee maar dat kan geen rocket science zijn.
4) Ja, WoL moet je mischien onderzoeken of dat inderdaad goed werkt. Vroeger in mijn geval op m'n eigen server ging dat vlekkeloos, dus opzetten via WoL, afzetten wanneer ik wil via SSH command in een script.
 

Skank

Well-Known Member
19 feb 2013
18.715
418
98
Earth
Ik twijfel nog tss 1 TB of 2 TB via sta->usb koppelen (zo doe ik dat nu ook met mijn kleine ssd)

Vraag me wel af of mn pi dat allemaal zal aankunnen

Home assitant, sonarr, radarr, sabnzb uitpakken en downloaden, en organizr, en file sharing..
 

jvanhambelgium

Well-Known Member
25 feb 2013
2.675
207
73
Ik twijfel nog tss 1 TB of 2 TB via sta->usb koppelen (zo doe ik dat nu ook met mijn kleine ssd)

Vraag me wel af of mn pi dat allemaal zal aankunnen

Home assitant, sonarr, radarr, sabnzb uitpakken en downloaden, en organizr, en file sharing..
Natuurlijk zal dat werken, maar sommige dingen zullen niet zo snel gaan hé. Kan best zijn dat het uitpakken op RPI vb 2 uur kan duren ipv 30min op snelle PC. Da's nu ook allemaal geen ramp hé.
"teveel" is niet echt van toepassing. Een computer zal de beschikbare cycles gewoon netjes verdelen over de verschillende applicaties. Je kan dat bijsturen zodat je vb de processen van HA altijd meer prioritair wil hebben tov minder belangrijke zaken etc.
Je RPI zal wel niet veel "idle" time meer hebben dan en de CPU zal goed gebruikt worden, maar daar dient het ook voor.
 
  • Vind ik leuk
Reactions: Skank

Skank

Well-Known Member
19 feb 2013
18.715
418
98
Earth
Toppie, lijkt me dan gewoon een no-brainer-go

Ik kan in afwachting van grotere ssd, eigenlijk alles al eens opzetten (rekening houdend dat ik niet direct enorm veel download)
 

Skank

Well-Known Member
19 feb 2013
18.715
418
98
Earth
Natuurlijk zal dat werken, maar sommige dingen zullen niet zo snel gaan hé. Kan best zijn dat het uitpakken op RPI vb 2 uur kan duren ipv 30min op snelle PC. Da's nu ook allemaal geen ramp hé.
"teveel" is niet echt van toepassing. Een computer zal de beschikbare cycles gewoon netjes verdelen over de verschillende applicaties. Je kan dat bijsturen zodat je vb de processen van HA altijd meer prioritair wil hebben tov minder belangrijke zaken etc.
Je RPI zal wel niet veel "idle" time meer hebben dan en de CPU zal goed gebruikt worden, maar daar dient het ook voor.
Nog ene vergeten,

Ik overweeg zelfs emby server erop te zetten...
(die staat nu ook op unraid)

Maar zal dat dan niet ZWAAR belastend worden....
 

jvanhambelgium

Well-Known Member
25 feb 2013
2.675
207
73
Nog ene vergeten,

Ik overweeg zelfs emby server erop te zetten...
(die staat nu ook op unraid)

Maar zal dat dan niet ZWAAR belastend worden....
CPU is meestal het probleem niet (wel bij zaken zoals uitpakken etc). Ik zou dan echt wel opteren om iets van RPI met 8GB RAM te gebruiken? 2GB is krap, 4GB is mischien net acceptabel.
Uiteindelijk op mijn NAS heb ik ook 15 containers draaien (waaronder nzbget, mariadb, spotweb,influxdb etc) en 4 VM's (Unifi,Splunk,Pihole,...) en dan nog gewoon Plex als "native app" op de Synology en alles werkt goed eigenlijk.
Enkel de "splunk" is niet mega responsief altijd, maar dat normaal (da's ook de zwaarste VM op m'n Synology met 4GB RAM toegewezen)

Nu m'n Synology is nooooit idle en heeft een week/maand "gemiddelde" van 40% CPU, da's best wel wat maar het gaat. Iets op Plex starten zal enkele seconden langer duren etc maar best nog allemaal acceptabel.
En als ik een "copy" doe van m'n NAS haal ik ook nog 112MBytes/sec hoor (= saturatie gigabit ongeveer)
 

Skank

Well-Known Member
19 feb 2013
18.715
418
98
Earth
Het is een Pi4 met 4gig ram dacht ik, not sure 4 of 8 ram, zou es moeten zien binnen HA of ik dat ergens kan aflezen
Dus jouw syn heeft ook maar 4 gig?
 

jvanhambelgium

Well-Known Member
25 feb 2013
2.675
207
73
Het is een Pi4 met 4gig ram dacht ik, not sure 4 of 8 ram, zou es moeten zien binnen HA of ik dat ergens kan aflezen
Dus jouw syn heeft ook maar 4 gig?
Neeje 16GB RAM ;-)
Genoeg geheugen is echt belangerijk bij vele concurrent toepassingen. Als 'm moet beginnen "swappen" (= stukken geheugen naar disk en van disk naar geheugen) is het om zeef. Een disk (zelfs SSD) is hééél veel keer trager als geheugen operaties (lees/schrijf)
Mijn RAM-geheugen is voor 70% vol.
 

Skank

Well-Known Member
19 feb 2013
18.715
418
98
Earth
70% is niet niks :)
Ik zit lager op de pi nu
Hoeveel mag je zo gemiddeld gaan? 80?
 

jvanhambelgium

Well-Known Member
25 feb 2013
2.675
207
73
70% is niet niks :)
Ik zit lager op de pi nu
Hoeveel mag je zo gemiddeld gaan? 80?
Goh ja, weet ook dat memory management best complex is. Een Linux machine lijkt soms "veel geheugen" aangeslagen te hebben, maar dat houd die dan als "cache" achter de hand enz.
Doe maar op je PI eens een command als :

jvanham@cruncher:~$ cat /proc/meminfo
MemTotal: 15798280 kB
MemFree: 7988948 kB
MemAvailable: 10978848 kB
Buffers: 183996 kB
Cached: 3322240 kB

SwapCached: 0 kB
Active: 1731328 kB
Inactive: 3174796 kB
 
  • Vind ik leuk
Reactions: Skank

Skank

Well-Known Member
19 feb 2013
18.715
418
98
Earth
Ik heb nu een map de op pi "te verhuizen", hoe zorg ik nu dat die automatisch op de server komt op de juiste map/schijf wanneer unraid online komt?
Met een script vermoedelijk...
Hoe begin ik daaraan ,of wie kan me hierbij helpen?
Dit gaat vermoedelijk boven mn petje
 

jvanhambelgium

Well-Known Member
25 feb 2013
2.675
207
73
Ik ben zelf totaal geen software-developer en ken een héél klein beetje rond scripts.
Je zou mischien ook iets kunnen doen met RSYNC ? (Remote Sync) om een bepaalde folder X op machine X telkens in sync te brengen met folder Y op machine Y
RSYNC bestaat al van voor ik geboren ben, da's standaard binnen elk Linux systeem aanwezig. Je moet eens kijken of op Unraid RSYNC ook als "service" gestart kan worden.
(vb Op Synology kan je RSYNC "server" hebben draaien, net zoals je via CIFS of NFS folders aan presenteren aan remote computers)

Ook te checken, kan je je Unraid server met WOL "aanzetten" ? Check eens of WakeOnLan kan ?
Het is ook belangrijk de verschillend "stapkes" duidelijk af te bakenen WAT er moet gebeuren en daarna omzetten naar "commando's"

Vb
stap1 : check of de Unraid server online is (dmv ping) en indien geen "ping" stuur een WakeOneLan "wakeup"
stap2 : wacht X tijd tot de unraid up & running is
stap3 : copier lokale folder X op de RPI naar folder Y op de Unraid. Nu moet je kijken waar die folder op de Unraid terecht moet komen. Toch niet IN een container ? Want dat gaat lastiger zijn tenzij je op de container een "foldermapping" maakt zodat je daar iets kan in "dropppen"
stap4 : verwijder de folder/files op de RPI
stap5 : Unraid server "iets" laten doen ? Of heb je dan NBZGET draaien die de folder gaat monitoren en aan de slag gaat met de NZB's ?
...

“Nothing is particularly hard if you divide it into small jobs”​

(Henry Ford)
 

Skank

Well-Known Member
19 feb 2013
18.715
418
98
Earth
Wol op mn server is geen optie zoals ik eerder zei, die werkt niet.
Met de nzb moet unraid niks doen, de data is al gedownload.

Zou oziets moeten zijn

Stap 1: check of server online is (ping))
Stap 2: wacht x tijd tot unraid up & running is
Stap 3: stuur bericht dat de move begonnen is
Stap 4: kopieer folder x op rpi naar folder y op de cache disk van unraid
Stap 5: verwijder folder/files op rpi
Stap 6: stuur bericht de move gedaan is.


Maar hoe ik dat maak?
Euh no idea at all
 

jvanhambelgium

Well-Known Member
25 feb 2013
2.675
207
73
De stappen "stuur bericht" moet je nu wel beginnen definieren ; wat is "een bericht" ? Mailtje ? Dan moet je zorgen natuurlijk dat je RPI correct is ingesteld om mails te versturen upstream etc.
Ook moet je nu zelf gaan onderzoeken wat op Unraid "mogelijk" is. Ik ken dat product totaal niet, mischien is dat zo'n gestripte Linux zonder al te veel commando's etc.
Kan je binnen Unraid eens zoeken of "rsync" server/service opgezet kan worden ?
Alternatief is "scp" . Als je kan SSH'en naar je Unraid vanaf je RPI kan je ook wel SCP'en (=Secure Copy Protocol). Dan is het een kwestie van rechten en users dat je vb in een bepaalde folder op Unraid MAG schrijven etc.
Die "cache" disk op Unraid, is dat een "volume" ? Is die gemount als een folder die je ziet als je via SSH naar de Unraid server connect etc.
 

Skank

Well-Known Member
19 feb 2013
18.715
418
98
Earth
Dat bericht kan idd een mail of pushbericht zijn, maakt niet zo veel uit
Ik zal es kijken op unraid idd
of mss heeft HA ook een addon hiervoor
Die cache disk is een volume die geen deel uitmaakt van de parity, bijgevolg gaat het schrijven ernaar een pak sneller
 

Skank

Well-Known Member
19 feb 2013
18.715
418
98
Earth

Software-update: Unraid 6.11​

Unraid logo (79 pix)
Versie 6.11 van Unraid OS is uitgekomen. Met dit besturingssysteem kan een server worden opgezet voor taken als network attached storage, applicatieserver en virtualisatiehost. Het is eenvoudig op te zetten en enorm flexibel met betrekking tot de gebruikte hardware en grootte van de harde schijven. Docker wordt gebruikt om functionaliteit toe te voegen en deze apps worden door een actieve community gevalideerd en onderhouden. Er is een eenmalige aanschafprijs die afhangt van het aantal gebruikte harde schijven en ssd's. Basic kost 59 dollar en staat tot zes apparaten toe, een plus-licentie kost 89 dollar voor maximaal twaalf apparaten en bij pro is dat voor 129 dollar ongelimiteerd. De release notes voor deze uitgave zijn hieronder voor je op een rijtje gezet.
What's New in Unraid OS 6.11.0 Stable?
The 6.11 stable release includes some minor feature improvements, bug fixes, an update of base packages, and an update to the 5.19.x Linux kernel. Samba has also been updated to version 4.17 and we're seeing some significant performance increases.
Improvements
  • With this release, there have been many base package updates including several CVE mitigations.
  • The Linux kernel update includes mitigation for Processor MMIO stale-data vulnerabilities.
  • The plugin system has been refactored so that 'plugin install' can proceed in the background. This alleviates the issue where a user may think the installation has crashed and closes the window when actually it has not crashed.
  • Support has been added for specifying custom VNC ports in the VM manager form editor. Now, a custom port number specified using the XML editor will be preserved when switching to a forms-based editor.
  • Spin down for non-rotational devices now places those devices in standby mode if supported by the device. Similarly, spin up, or any I/O to the device will restore normal operation.
  • Display of NVMe device capabilities can now be obtained from SMART info.
  • Necessary kernel CONFIG options to support Sr-iov with Mellanox connectx4+ cards have been added.
  • The Dynamix SSD Trim plugin has been merged into the Unraid OS webGUI.
  • Preliminary support for cgroup2 has been added. Pass 'unraidcgroup2' on syslinux append line to activate.
  • Perl has been included in the base distro.
  • Many other webGUI improvements.
Bug fixes
  • Fixed an issue in VM manager where VM log cannot open when VM name has an embedded '#' character.
  • Fixed an issue where a scheduled Parity check pause/resume function was broken.
  • Fixed issue installing registration keys.
  • Updated 'samba' to address security mitigations.
  • Fixed an issue switching from the 'test' branch to 'next'.
  • Spin down devices that do not support standby mode now quit trying to do so.
  • Fixed AD join issue caused by an outdated cyras-sasl library
  • The mcelog daemon does not start now if the CPU is unsupported (most AMD processors).
  • Fixed nginx not recognizing SSL certificate renewal.
  • Wireguard now checks the reachability of the gateway (next-hop) before starting the WG tunnel.
  • Fixed bug in mover that prevented files from being moved from Unraid array to a cache pool (mode Prefer) if the share name contains a space.
  • More big fixes are in the changelog!
 

Sphinkx

Well-Known Member
Home-Theater Goud
19 feb 2013
2.478
309
93
Hmm. Met mijn 17 hd betekent dit sowieso een pro licentie… Maar de vraag is of ik dat nodig heb.
 

Stiibun

Well-Known Member
19 feb 2013
3.276
211
68
Op mijn eigen server, niet zo gek véél veranderd in al die tijd, nog altijd maar 20TB opslag.

Skank Skank , kon je helaas niet helpen met apps op verschillende toestellen want heb daar zelf geen ervaring mee.

Hier staat de unRAID server 24/7 op, maar wel met spindown van disks als deze niet in gebruik zijn. S3 Sleep heb ik een tijd geleden wel uitgezet, vooral omdat Infuse op de Apple TV geen WOL kan doen naar de server. Nu zou ik die S3 Sleep terug willen activeren en 'k zie dat er reeds wat apps zijn voor Apple TV die dat trucje kennen, en zelfs meer zoals op afstand opstarten/uitzetten van een toestel en zelfs te bedienen met Siri.
Dus binnenkort maar eens bekijken hoe we dat kunnen regelen om als ik 's avonds de HT spullen aanzet met slimme stekers er ook meteen een WOL wordt gestuurd naar de unRAID server. Dat moet zeker lukken.

Trouwens ondertussen was de batterij in mijn APC UPS er door, dus moest een nieuwe batterij hebben. Maar de APC officiële batterijen zijn behoorlijk aan de prijs. Dus maar een nieuwe besteld een APC Back-UPS ES 850G2. En deze heeft in unRAID nu wel aan hoeveel stroom deze trekt. Dit schommelt bij normale load rond de 35 Watt. unRAID server is zeker niet de grootste verbruiker hier (HT spullen verbruiken heelwat meer), maar op jaarbasis tikt het toch aardig aan. Dus vandaar dat S3 Sleep maar weer eens moet ingesteld worden.
De 'ouwe' APC zal wel een batterijvervanging krijgen, want kan deze ook ergens anders inzetten om bijvoorbeeld desktop te beschermen tegen stroomuitval.

Verder nog altijd een beetje dezelfde Docker containers, maar draaien allemaal op de server dus.

Schermafbeelding-2023-01-20-om-12-41-52.png


Wel de Docker Folders plugin geïnstalleerd zodat ik die containers wat beter kan organiseren.

In Quarantaine map bevat containers die ik momenteel niet meer gebruik.
  • NginxProxyManager even geprobeerd ipv Swag, maar krijg het toch niet meteen aan de praat zoals het zijn moet. Moet daar eens rustig voor neerzitten. Zou ook eens willen gebruik maken van Cloudflare tunnel ipv DDNS, dat biedt blijkbaar ook wat voordelen.
  • Heimdall als dashboard is vervangen door Homarr.
  • Indexer nzbhydra is vervangen door Prowlarr, ik zit dus volledig in het ARRs (pun intended 😁) landschap.

Tdarr en zijn node zijn ook niet opgestart. Dienen om H.264 e.a. om te zetten naar HEVC (H.265) wat ruimtewinst oplevert zonder kwaliteitsverlies. Heb daar na het doorlopen van mijn niet zo'n grote bibliotheek 3TB aan ruimte door uitgespaard van de totale 11TB ingenomen ruimte.

En heb hier nog altijd een Samsung MVME SSD liggen die ik eens zou willen inbouwen om de SATA SSD te vervangen. Misschien eens in de toekomst als er een nieuwe schijf nodig is. Zal dan een 10TB worden. De laatste geshucked WD Elements 10TB wordt wel een stukje warmer dan de eerste, dus niet meer zeker of ik nog zo'n WD Elements zou shucken, zal van de prijs afhangen.

Zo dat was het epistel voor nu :)
 
  • Vind ik leuk
Reactions: broodro0ster