HomeLab

Ich habe es nochmal getestet. Wenn ein Host offline ist, wird das Playbook beendet.
 
  • Haha
Reaktionen: ctrlaltdelete
@plang.pl Ich habe das jetzt auch getestet. Ich habe zwei Hosts runtergefahren.
Code:
ansible@ansible:~/playbooks$ ansible-playbook disk-space-usage.yml

PLAY [Dockerhost,Share,ReverseProxy,ReverseProxy2,Proxmox,Proxmox2] ******************************************************************************

TASK [Gathering Facts] ***************************************************************************************************************************
ok: [Proxmox]
ok: [ReverseProxy]
ok: [Dockerhost]
fatal: [Share]: UNREACHABLE! => {"changed": false, "msg": "Failed to connect to the host via ssh: ssh: connect to host 192.168.22.12 port 22: No route to host", "unreachable": true}
ok: [Proxmox2]
fatal: [ReverseProxy2]: UNREACHABLE! => {"changed": false, "msg": "Failed to connect to the host via ssh: ssh: connect to host 192.168.22.18 port 22: Connection timed out", "unreachable": true}

TASK [Get disk usage] ****************************************************************************************************************************
changed: [ReverseProxy]
changed: [Proxmox]
changed: [Dockerhost]
changed: [Proxmox2]

TASK [Check disk space available] ****************************************************************************************************************
changed: [Dockerhost]
changed: [Proxmox]
changed: [ReverseProxy]
changed: [Proxmox2]

TASK [Send Ntfy message] *************************************************************************************************************************
skipping: [Dockerhost]
skipping: [ReverseProxy]
skipping: [Proxmox]
skipping: [Proxmox2]

PLAY RECAP ***************************************************************************************************************************************
Dockerhost                 : ok=3    changed=2    unreachable=0    failed=0    skipped=1    rescued=0    ignored=0
Proxmox                    : ok=3    changed=2    unreachable=0    failed=0    skipped=1    rescued=0    ignored=0
Proxmox2                   : ok=3    changed=2    unreachable=0    failed=0    skipped=1    rescued=0    ignored=0
ReverseProxy               : ok=3    changed=2    unreachable=0    failed=0    skipped=1    rescued=0    ignored=0
ReverseProxy2              : ok=0    changed=0    unreachable=1    failed=0    skipped=0    rescued=0    ignored=0
Share                      : ok=0    changed=0    unreachable=1    failed=0    skipped=0    rescued=0    ignored=0

Bei mir bricht er nicht direkt ab, sondern läuft alle Hosts durch.
 
Komisch. Ich habe im Playbook den Task hinterlegt, der wiederum in einer extra yaml steht. Der Befehl lautet "shutdown now". Aber das dürfte ja eigentlich keine Rolle spielen. Oh man. Jetzt heißt es wieder herauszufinden, wo der dämliche Fehler liegt
 
Mal probiert ein delay einzubauen?
Mein Playbook sieht so aus:
Code:
- hosts: usv

  become: yes
  tasks:
    - name: shutdown
      community.general.shutdown:
        delay: 60
Bei mir ist das Delay dafür da, falls der Proxmox Host der erste ist, dann wäre auch mein Ansible Host weg und könnte nichts mehr ausführen.
 
Auch interessant. Muss mal kucken, aber das wird denke ich nicht die Lösung sein.
 
Ich habe bei ansible selbst nichts konfiguriert. Alles Standard...
 
allo zusammen

Eigentlich wollte ich meinen Portier aktualisieren, leider geht dies nicht:

1708202655261.png
Wie gehe ich nun am besten vor ohne mir das ganze zu killen ? Beim Prtainer handelt es sich um die Business edition... :cool:
 
Ich kann mir leider den Screenshot nicht angucken, weil beim vergrößern kommt, dass ich keine Rechte dazu habe. Was ist denn das Problem? Oder was hast du probiert? Solange du das Volumen/die Portainer Daten löscht passiert nichts. Ansonsten vorher in Portainer ein Backup erstellen.
 
@alexhell
Komisch ich kann den screenshot auch nicht anschauen. 😱 , das problem ist, ich kann im container manage nicht auf update klicken weil bei version nicht latest eingestellt ist sondern eine Versionsnummer, und somit gibt es kein Update:2024-02-17_21-43-20.jpg
Wie kann ich dies ändern ?
 
Da musst du wohl den Container löschen und das Image latest pullen und dann den Container neu anlegen.
 
  • Wow
Reaktionen: Toby-ch
Aber wenn der Container richtig konfiguriert ist, dann passiert da nichts
 
Ja ich frage mich auch gerade was ich da gemacht habe....:unsure: ich glaube das ist beim Wechsel von CE zu Business edition passiert..
 
Das ist draw.io. Gibt es als Website (app.diagrams.net) oder Self-Hosted als Docker. Was ich natürlich in Betrieb habe :cool:
 
Ich hab es vorhin noch mal versucht mit den Playbooks. Jetzt überspringt er auch einfach nicht erreichbare Hosts. Komisch. Keine Ahnung warum, ich habe nix geändert.
Mein Blackout-Test war nun erfolgreich. Alle VMs und Hosts fahren runter (inkl. DS).
 
  • Like
Reaktionen: alexhell
Ich bin jetzt quasi gratis an einen weiteren M720q Tiny mit i5-9400T "gekommen". Da muss ich "nur noch" Netzteil, RAM und SSD ordern (was gerade passiert ist):
eBay: Netzteil 28€; RAM 32GB S0DIMM DDR4 (2x 16GB Kit): 66€
Mindfactory: Samsung 870 EVO 1TB (95€); Samsung 970 EVO (89€)
Ja, die nvme ist tatsächlich günstiger als die SATA-SSD.

Da wird natürlich auch ein Proxmox draufkommen. Das wird dann eine reine Testmaschine, die auch nicht 24/7 laufen wird. Hauptzweck der Kiste wird sein, ein NAS per VM abzubilden. Ich werde erstmal die Möglichkeiten und Grenzen von TrueNAS Scale ausreizen. In die VM dann eine via USB verbundene alte WD Red Plus durchreichen. Denn wenn meine DS mal ausgedient hat, wird vermutlich keine Synology DS mehr angeschafft werden. Auch wenn das noch ziemlich lange dauern dürfte, schadet es ja nicht, sich bereits jetzt mal mit dem Thema zu befassen.
 
Ich bin gerade dabei Odoo inkl DB zu installieren jedoch erhalte ich diesen Fehler:

ErrorDeployment errorfailed to deploy a stack: Container Odoo-DB Creating Container Odoo-DB Created Container Odoo Creating Container Odoo Created Container Odoo-DB Starting Container Odoo-DB Started Container Odoo-DB Waiting Container Odoo-DB Error dependency failed to start: container Odoo-DB is unhealthy

YAML:
version: "3.9"
services:
  db:
    image: postgres
    container_name: Odoo-DB
    hostname: odoo-db
    mem_limit: 512m
    cpu_shares: 768
    security_opt:
      - no-new-privileges:true
    user: 1026:100
    healthcheck:
      test: ["CMD", "pg_isready", "-q", "-d", "postgres", "-U", "odoouser"]
      timeout: 45s
      interval: 10s
      retries: 10
    volumes:
      - /volume2/Docker2/odoo/db:/var/lib/postgresql/data:rw
    environment:
      POSTGRES_DB: postgres
      POSTGRES_USER: odoouser
      POSTGRES_PASSWORD: XXXXXXX
    restart: on-failure:5
    networks:
      Docker:
        ipv4_address: 10.98.4.105

  odoo:
    image: odoo:17
    container_name: Odoo
    hostname: odoo
    mem_limit: 1g
    cpu_shares: 768
    security_opt:
      - no-new-privileges:true
    user: 1026:100
    healthcheck:
      test: curl -f http://localhost:8069/ || exit 1
    ports:
      - 8069:8069
    volumes:
      - /volume2/Docker2/odoo/web-data:/var/lib/odoo:rw
      - /volume2/Docker2/odoo/addons:/mnt/extra-addons:rw
      - /volume2/Docker2/odoo/cache:/.cache/pip:rw
      - /volume2/Docker2/odoo/local:/.local:rw
      - /volume2/Docker2/odoo/config:/etc/odoo:rw
    environment:
      HOST: odoo-db
      PORT: 5432
      USER: odoouser
      PASSWORD: XXXXXXX
    restart: on-failure:5
    depends_on:
      db:
        condition: service_healthy
    networks:
      Docker:
        ipv4_address: 10.98.4.104
        
networks:
  Docker:
    external: true

Passwort wurde absichtlich zensiert.
Beim server handelt es sich um eine Synology DS 224+ mit 2 nic's Management lan und Docker lan
Die beiden container sind im Docker Lan. muss ich noch irgend wo etwas konfigurieren das die Container miteinander kommunizieren können ?
Netzwerk ist offen ist kein Security Vlan nur zur segemntierung.
 
Das wäre wohl in einem eigenen Thread besser aufgehoben
 
 

Kaffeautomat

Wenn du das Forum hilfreich findest oder uns unterstützen möchtest, dann gib uns doch einfach einen Kaffee aus.

Als Dankeschön schalten wir deinen Account werbefrei.

:coffee:

Hier gehts zum Kaffeeautomat