4

Was machen mit den gespeicherten Files in der Ninox_DB?

Das Gute an Ninox ist auch, dass man die Apps nutzen kann um direkt Fotos für den Record zu erstellen. Solange man die reine App nutzt und auch die Datenbank auf dem eigenen Rechner oder in der iCloud speichert, muss man sich eigentlich keine Gedanken um die Datenbankgröße machen. Wie man weiss, blähen Bilder/Videos und dazu gehören auch die in Ninox erstellten und abgespeicherten Druck-PDF's, die Datenbankgröße auf.
Wenn man nun die Public-Cloud von Ninox nutzt, kann man durch die neue Verbrauchsübersicht (Zahnrad im Teammenü) nachsehen, was sich da so im Laufe der Zeit an Volumen angesammelt hat. (Hätte ich nicht machen sollen)
Wie kann man dem entgegenwirken.
Eine Möglichkeit besteht wohl darin, seinen Ninox Kapazität monetär aufzustocken.
Mein Lösungsansatz besteht darin, die Datenbank zu verschlanken, indem ich die Dateien auslagere. Es gibt einige Lösungen auf dem Markt: NextCloud, Seafile, Baserow etc., welche man auch selbst hosten kann. Ich habe mich für Baserow entschieden und nutze n8n (wobei es sicherlich auch mit Make funktionieren würde) um die Files auszulagern und nur noch einen Sharelink auf das File in Ninox zu behalten. Einen Drittanbieter wie n8n deshalb, weil man bei Baserow vor dem Upload einen Zertifizierungsschlüssel benötigt und aus Ninox keine Bilder direkt irgendwohin laden kann. Bei Bildern hat man noch den Vorteil, über Thumbnails eine kleine Vorschau zu erhalten. In meinem Fall, werden die Ninox-DB'en, bei denen ich es schon anwende erheblich verkleinert und der Arbeitsfluss innerhalb Ninox läuft auch smooth. Das System funktioniert auch mit den Apps (Ich nutze das iPhone um Kassenbons zu fotografieren und über ein OCR automatisch den gezahlten Betrag/Datum in Ninox einzutragen) Nach dem OCR lagere ich das Foto direkt aus und halte die DB damit klein.
Ein Beispiel der Funktionsweise für das Auslagern und wieder importieren von Files findet ihr im NX-API Team in der Carbone Bsp. DB in der Tabelle Bilder. Man kann es direkt im Team testen, da kein Ninox API-Key benötigt wird. Voraussetzung ist jedoch ein Ninox ABO, da Sharlinks zur Übertragung erzeugt werden und das nur mit den Ninox Cloudversionen funktioniert.

Ich kann auch mal eine reine NinoxDB zum ausprobieren in das Team laden, welche nur den Upload /Import  ohne SchnickSchnack zeigt und den n8n Flow beinhaltet.

So sieht mein n8n Flow zum Übertragen per Webhook aus:
 

So sieht die Baserow Tabelle aus:
 

Wie bereits angesprochen, ist dies meine persönliche Lösung und dient nur zur Anregung. 

41 Antworten

null
    • mirko3
    • vor 1 Jahr
    • Gemeldet - anzeigen

    Hallo Uwe. Das ist nach Blick auf die Verbrauchsansicht und dem langsamen Ablassen meiner Atemluft, auch sofort ein Gedanke gewesen. Was nun? Schöne Idee von Dir und leider wieder nur mit Zusatzprogramm, Konto, Anmeldung etc. zu erreichen. Danke für die Anregungen und Hinweise. Ich habe bisher vermieden, so etwas zu nutzen und ich sehen auch nur einen Grund, warum eine Schnittstelle zum eigenen Rechner und seiner Festplatte bisher keine Umsetzung fand. Eine solche Verlinkungsmöglichkeit ist in meinen Augen keine große Programmieranstrengung. Aber ich kann mich ja täuschen.

    Übrigens traue ich der Verbrauchsanzeige noch nicht. Ich habe fast alle Backups, auch die automatischen, gelöscht und die Anzeige ist gleich geblieben. Vielleicht sollte man vor dem überstürzten Kauf von Datenvolumen noch ein wenig warten, bis sicher ist, dass diese auch korrekt funktioniert. Trotzdem großes Danke für Deine Mühe, wieder mal!, für die Ninox-Gemeinschaft. Mirko

      • UweG
      • vor 1 Jahr
      • Gemeldet - anzeigen

      Mirko Lokal ist so eine Sache.

      1. Man kann nicht aus dem Web heraus direkt lokal zugreifen. 
      Ich habe sowas wieder mal mit einem Zusatzprogramm gelöst, indem ich die n8n App lokal auf  dem Rechner laufen ließ und darüber auf angeschlossene Festplatten oder NetzLaufwerke Daten ausgelagert habe.

      Dazu muss der Rechner permanent laufen.
       

      Das Rückspeichern muss dann auch wieder über das Drittprogramm laufen, da Sharlinks nicht angeboten werden und es dann über http-Requests funktioniert..

      2. Make wird nicht funktionieren, da man meines Wissens darüber keine lokalen Dateizugriffe ausführen kann.

      Ich sehe es so:
      Wenn man die Public Cloud von Ninox nutzt, muss man sich vorher überlegen, welches Abo man nutzen möchte. Und man muss wie im Leben Kompromisse schließen.

      Wenn ich sehe, wie durch die Änderung von Integromat zu Make die Leistung bei gleichem Preis beschnitten wurde, bin ich mit meiner Lösung eines gehosteten Servers mit n8n (als Make-Ersatz) und Baserow als FileDatenbank für mtl. knapp 15€ inclusive. Domäne nicht schlecht bedient.

      Und es läuft stabil seit 3 Monaten.

      • mirko3
      • vor 1 Jahr
      • Gemeldet - anzeigen

      UweG Nicht mißverstehen. Du wärest ja auch der falsche Adressat für meine persönlichen Wünsche. Ich arbeite mit den Mitarbeitern stets im gleichen lokalen Netz. Ich bin kein IT-ler und habe mich nur genügend damit befaßt um unsere Abläufe zu optimieren und komme oft genug an meine Grenzen. Da lag einfach mein Wunsch nahe, die Bilddateien auf einem Netzlaufwerk abzulegen. Aber noch ein Programm verstehen lernen ist ja auch ein Aufwand und den scheue ich im Moment. Trotzdem ist es gut zu wissen, daß es geht und das man dann jemanden (Dich) fragen kann ;-)

      • UweG
      • vor 1 Jahr
      • Gemeldet - anzeigen

      Mirko  Das ist nur eine Anregung und meine Praxiserfahrung mit der lokalen Speicherlösung hat mir gezeigt, dass die Arbeitsabläufe in Ninox nicht so smooth laufen wie die Lösung mit dem extern Speichern. Aber das muss jeder für sich selbst entscheiden. Es gibt hier kein Richtig oder Falsch. Es ist Richtig, wenn die Lösung für einen gut funktioniert.

      Und ich habe den gleichen Werdegang wie du, was die Nutzung von Ninox betrifft. Das meiste ist l'earning bei doing' und da sind sehr viel andere User mir mit Wissen weit voraus.

    • Michi.1
    • vor 1 Jahr
    • Gemeldet - anzeigen

    Das klingt alles super, bis auf die extra Kosten. Mich würde interessieren ob man in dem Szenario auch die jpg Kompression anpassen kann, oder ob der Speicherplatz den die Bilder auf Baserow einnehmen egal ist im Bezug auf die Kosten. ( nicht bei jedem Handy ist die bildgröße einstellbar, was heißt trotz kleinem bild schlagen dann schon mal 2 MB pro bild zu buche) allerdings würde ich als kostengründen für unser Vorhaben App (monteure im Außendienst) zu web (Verwaltung in teams) nur einen extra Account hinzu buchen wollen. Das hat zwar in der benutzersteuerung einige Nachteile, jedoch stehen die Kosten sonst im Weg. Allerdings bekomm ich dann auch nur 2 GB hinzu, welch natürlich schnell weg sind. Von der Seite würden sich die von dir genannten Kosten schnell rechnen. 

      • UweG
      • vor 1 Jahr
      • Gemeldet - anzeigen

      Michi 
      Ich habe mal eine 187MB große Datei nach Baserow geladen. Hat zwar eine Weile gedauert, aber funktioniert.

    • Icarus_Ralf_Becker
    • vor 1 Jahr
    • Gemeldet - anzeigen

    Also, ich bin absolut davon überzeugt, dass die Verbrauchsübersicht falsche Werte anzeigt. Eine meiner Produktivdatenbanken ist erst seit Jahresbeginn im Einsatz. Laut Verbrauchsanzeige umfasst sie 2,5GB. Ja, sie enthält relativ viele PDF´s. Das heruntergeladene Backup inkl. Files, Historie, Kommentare etc. war genau 417MB groß. 

    • Michael.3
    • vor 1 Jahr
    • Gemeldet - anzeigen

    Hallo UweG,

     

    wenn ich Deinen Beitrag richtig verstanden habe, würde eine lokale Installation von n8n mit einer lokalen Installation von Ninox so zusammenarbeiten, dass mit Ninox erstelle und in der Datenbank gespeicherte Dateien (*.csv, *.pdf, etc.) automatisiert an einem in Netzwerk befindlichen Ordner ausgelagert werden kann, richtig?

      • UweG
      • vor 1 Jahr
      • Gemeldet - anzeigen

      Michael Lokal eher nicht, ist aber dann auch nicht notwendig, da die Größe der DB nur von der Speichergröße der Festplatte abhängig ist, auf der sie liegt.

      Mit der Browserversion kann man auch, mit entsprechendem n8n Flow, Files lokal speichern.
      So sähe der Flow wohl aus:

      Man gibt dem Webhook den ShareFile-Link, den Dateinamen, die Dateiendung und den Speicherort mit. Im GET-Node holt man sich das File über den Sharelink, im Funktion-Node fügt man dem geladenem File den Namen samt Dateiendung zu und gibt im Write-Node den Dateipfad samt Filenamen an wo es abgelegt werden soll.

    • Michael.3
    • vor 1 Jahr
    • Gemeldet - anzeigen

    UweG OK, danke für Dein Feedback! Ich habe eher daran gedacht, mit n8n eine Funktion zu nutzen, die ich in Ninox schmerzlich vermisse, das automatische Downloaden von Dateien, in der Regel CSV, die Ninox selbst erstellt hat. Diese CSV-Dateien sind bei mir Zahlungsträgerdateien und müssen für den Import in MacGiro in einem speziellen Verzeichnis im Filesystem liegen.

      • UweG
      • vor 1 Jahr
      • Gemeldet - anzeigen

      Michael Was meinst du mit automatisch?
      Wenn du nur Ninox-App nutzt, wüsste ich momentan nicht wie man in Ninox erstellte Files automatisch heraus transferiert. Es gibt meines Wissens zur Zeit nur 2 Möglichkeiten dies zu bewerkstelligen:

      1. Man nutzt den ShareLink des Files

      2. Man nutzt die Rest-API um mit einem GET das File zu laden.

      Beide Möglichkeiten setzen ein Ninox-Abo voraus.

      Wenn man dann noch das File lokal auf seinen Rechner in ein bestimmtes Verzeichnis ablegen möchte, kommt man um ein Drittprogramm wie n8n oder NodeRed, welche auch lokal auf dem Rechner laufen müssen, wohl nicht herum.

      Ich hatte einiges ausprobiert. File, lokal auf dem Rechner ablegen, File, auf eine Synology speichern. File, zu DropBox/Box hochladen und einen lokalen Ordner auf dem Rechner als geteilten Ordner freigeben.

      Das setzt zum funktionieren immer ein Ninox-Abo voraus.

      Letztendlich hat sich für mich die oben beschriebene Lösung als praktikabelste herausgestellt.
       

      Ich bin aber gespannt, andere Lösungen zu sehen, die mir auch wieder Input geben bei mir etwas zu verändern / verbessern.

      Aber im Endeffekt hast du Recht, was das Dateihandling in Ninox betrifft.

      Es ist verbesserungswürdig.

    • UweG
    • vor 1 Jahr
    • Gemeldet - anzeigen

    Aufgrund der Anzeige über den verbrauchten Speicher der Datenbanken bin ich dazu übergegangen, alle meine Produktiv DB'en, die Files enthalten nach der voran beschriebenen Methode zu verschlanken. Und wie ich feststelle, sind es hauptsächlich Fotos und PDF's, welche die DB aufblähen. Ich habe bspw. eine DB zur Verbrauchserfassung, in der regelmäßig Fotos von Zählerständen, Verträge als PDF und andere Dokumente abgelegt werden. Das hat im Laufe der letzten 3 Jahre dazu geführt die DB auf über 500 Mb aufzublähen.
    Ich konnte nicht einmal mehr mit der DB in ein anderes Team umziehen, da das Laden des Backups immer mit einem Fehler abbrach. Jetzt habe ich alle vorhandenen Fotos/PDF's/Dokumente ausgelagert und komme nur noch auf DB-Größe von 18 Mb. 
    Und das ist nur eine meiner DB'en, die Files enthalten.

    Das Umziehen der DB hat jetzt funktioniert und es lebt sich leichter.
    Benötige ich das Original Foto/PDF, lässt es sich mit einem Button ohne merkliche Zeitverzögerung wieder in das Bildfeld von Ninox laden und anschließend auch wieder entfernen.

    Wenn man Files in der Ninox-DB speichern muss, sollte man versuchen einen zentralen Ablageort zu definieren und alles dort abzulegen und per Verlinkung in den zugehörigen Records anzeigen zu lassen. Was ich alles an Waisen in Anhängen von Records gefunden habe obwohl das File eigentlich im Bildfeld des Records abgelegt wurde ist schon erstaunlich.

    • UweG
    • vor 1 Jahr
    • Gemeldet - anzeigen

    Ich habe jetzt mal einen funktionierenden Make-Flow gebaut, der die gleiche Funktionalität wie der n8n-Flow hat.
    Man kann also auch mit Make/Integromat anstatt n8n die Anbindung an Baserow bewerkstelligen. Man könnte den Flow noch um 2 Nodes verkürzen um die Kosten zu verringern.
    Ich habe es mal mit dem kostenfreien Baserow-Account auf Baserow.io gebaut, wenn man Baserow nicht selbst hostet oder hosten lässt.

     

     

    Beide Varianten funktionieren.

    • Ninox Solution-Partner
    • RonaldP
    • vor 1 Jahr
    • Gemeldet - anzeigen

    Hi UweG ,

    Ich hatte heute unterwegs eine Idee, wie das Laden von Vorschaubildern ganz ohne Datenverbrauch gelingen kann.
    Ich habe es geschafft in einem FX-Feld ein Bild per html-Befehl anzuzeigen, dass in meiner Nextcloud liegt. Mit dem html-code lässt sich auch die Anzeigegröße einstellen:

    html("<img src=https://nextcloud.digi-tool.de/s/Jyemjwt83N2jrpT/preview width=142 />")
    

     

    Next Step ist die Vorschau von PDFs!
    Das geht gundsätzlich mit diesem Code, aber mit Nextcloud hab ichs noch nicht geschafft...
     

    html("<embed src=https://nextcloud.digi-tool.de/s/ZfL8f4zEww9sty4 width=280px  />")
    

     

    Aber ein direkt verlinktes PDF geht:

    Viele Grüße
    Ronald

      • UweG
      • vor 1 Jahr
      • Gemeldet - anzeigen

      Ronald Polski Moin Ronald.
      Die Idee ist gut und wie immer 2 Dumme, ein Gedanke.
      Seit letztem Freitag habe ich mich auch daran versucht, bis mir einfiel, dass ich es ja in der Carbone Bsp. DB bereits gebaut hatte. Da besteht die Möglichkeit das erstellte PDF direkt in der Mac-Vorschau zu öffnen. Ob es bei Windows als Betriebssystem etwas vergleichbares gibt weiß ich nicht.

      Vielleicht hilft dir ja folgender Code:

      html(---
      <embed iframe src=https://nextcloud.digi-tool.de/s/ZfL8f4zEww9sty4 width=280px  </iframe>
      ---)

      Bei mir funktioniert es bei PDF's mit dem Baserow Link auf das Original.
      Leider nur mit PDF's.
      Bilddateien werden nur angezeigt, können aber nicht mit der Vorschau geöffnet werden.

      • UweG
      • vor 1 Jahr
      • Gemeldet - anzeigen

      Ronald Polski 
      Ich habe es jetzt so gebaut, daß bei PDF's durch anklicken im Funktionsfeld die Mac-Vorschau gewählt werden kann und wenn es sich um kein Bildfeld handelt, das File beim anklicken direkt auf den Rechner geladen wird. Im Browser habe ich noch eingestellt, dass sich bei Bilddateien die MacVorschau automatisch öffnet. Das ist ein Kompromiss, mit dem ich leben kann.
      Ich kann es ja Morgen, bei stattfindenem Meeting zeigen. 

    • Timo_Tw
    • vor 1 Jahr
    • Gemeldet - anzeigen

    Ich habe bei mir eine ähnliche art der Übertragung geplant und wenn 50-70GB an Speicher reichen gibt es eine recht kostengünstige Option:

    netcup vServer VPS 500 G10s - 5,55€ im Monat

    netcup DE-Domain - 5,00€ im Jahr

    Cloudron.io - Complete solution for running apps on your own server - bis zwei Apps kostenlos, incl. Mailserver etc.

    Und als Apps einfach Baserow und n8n installieren

    Schon hat man für knapp 6 Euro allles was man in kleinen bis mittleren Umgebungen benötigt und mit einem Einladungscode würde man sich sogar noch die Grundgebühr für nen Monat sparen.

     

    Ich habe mittlerweile einen Rootserver mit Cloudron in der kostenpflichtigen Variante, weil darauf dann noch Vaultwarden (Bitwarden), Nextcloud, Wordpress, BookStack, Roundcube als Webmailer und CODE (Web Office für Nextcloud) läuft. Und natürlich immer mal schnell einen der verfügbaren Apps zum testen...

    • Ferienanlage am Grenzbach
    • RHartung
    • vor 1 Jahr
    • Gemeldet - anzeigen

    Ich versuche meine Datenbank auch gerade zu verschlanken, da sie durch die Massen an PDF's doch recht aufgebläht ist. Das Auslagern der Dateien auf z.B. pCloud geht über Make/Integromat ohne Probleme. Nur wie schaffe ich es die Datei freizugeben und als Link nach Ninox zurückzugeben um sie von dort aus wieder aufzurufen? Hat da jemand eine Idee?

      • Geschäftsführerin bei Kennes Digital
      • Stefanie_K
      • vor 1 Jahr
      • Gemeldet - anzeigen

      R.Hartung im Make gibt es ein Dropbox-Modul "create ShareLink". Darüber kannst du dir einen Link zu einer Datei erzeugen lassen. Diesen kannst du anschließend mit einem Ninox-Modul namens "Update Record" in Ninox in ein URL-Feld einfügen.

    • T_Bartzsch
    • vor 1 Jahr
    • Gemeldet - anzeigen

    Ich spreche Dropbox über die Rest API übrigens direkt an... ohne Make, Zapier oder n8n...

    Das wäre also - so man denn ein Dropbox Abo hat (die Free Version hat ja nur 2 GB, da hat man nix gewonnen) eine Option. Ich schaue mal, ob es nicht auch andere Hoster gibt mit RestAPI und vllt. 50GB Speicher. Wichtig dabei ist, dass der Dateiupload über URL stattfinden kann.

      • Geschäftsführerin bei Kennes Digital
      • Stefanie_K
      • vor 9 Monaten
      • Gemeldet - anzeigen

       Hast du dafür bei Dropbox eine App erstellt, um einen Access Token zu erhalten, der nicht abläuft? Dort steht ja

      "Production access is meant for apps that need to be linked by more than 50 users or linked by more than one team".

      Solange man die App aber im Entwicklungsstatus lässt, läuft der Access Token nach 4 Stunden ab und man hat keine Möglichkeit, diesen automatisch neu generieren zu lassen. Das macht die Sache ziemlich müßig.

      • T_Bartzsch
      • vor 9 Monaten
      • Gemeldet - anzeigen

       ja, ich glaube ich habe damals während einer Business Account Testphase eine App erstellt um einen Token zu erhalten. Mit ablaufenden Token habe ich bei Dropbox bisher keine Probleme... aber die lassen sich doch sicher auch vor dem eigentlichen Call neu generieren - klar, ist etwas nervig...

    • Dr_Stefan_Philipp
    • vor 5 Monaten
    • Gemeldet - anzeigen

    Lieber UweG,

    da ich mich mit dem gleichen Problem einer stetig zunehmenden Datenbankgröße herumplage und im Forum auf diesen Thread gestoßen bin, möchte ich kurz meine Situation skizzieren und danach eine Frage stellen:

    a) In konkreten Fall handelt sich um eine ziemlich komplexe medizinische Datenbank (50 Tabellen) in der Public Cloud zur Befunderstellung und Arztbriefschreibung. Zur Befunderstellung existiert eine einzige Tabelle, an die während einer Untersuchung oder Operation erstellte Bilder als Dateianhang angehängt werden können.

    b) Nach Import der Dateien als Dateianhang wird ein Button gedrückt, der die Bilder in eine Tabelle namens "Bilder" kopiert und dann alle Dateianhänge löscht.

    c) Für jedes neue Bild wird ein neuer Record in der Tabelle Bilder erstellt. Dies löst bei Zapier ein Zap aus, dass die Bilddatei in die Dropbox verschiebt, anschließend das Original löscht und durch einen Download-Link ersetzt.

    d) Ein ähnlicher Zap existiert auch für jede neue PDF-Datei.

    e) Somit enthält die Datenbank weder Dateianhänge noch gespeicherte Bilder oder PDF-Dateien; alles ist in die Dropbox verlinkt.

    f) Bei der Erstellung eines Arztbriefes werden diese Bilder temporär heruntergeladen, in das Dokument eingepflegt und nach Fertigstellung des PDF-Dokuments wieder gelöscht.

    Dennoch wächst die Datenbank ständig an und hat seit ihrem Start in den Produktivbetrieb Ende August 2023 bereits eine beachtliche Größe: Erstelle ich ein Backup mit Files, dann beträgt die Größe der heruntergeladenen Datei 688 MB. Das Backup ohne Files ist gerade mal 2,3 MB groß.

    Somit ergibt sich meine Frage:

    Kann es sein, dass Ninox die importierten Bilddateien irgendwo auf dem Server speichert, obwohl sie clientseitig gelöscht werden?

    Für diesen Umstand spricht die Auskunft des Supports, dass man bei Überschreiten der max. Speicherkapazität ein Backup erstellen und herunterladen solle. Dieses wäre nach dem Zurück-Importieren unter Umständen kleiner als die Original-Datenbank.

    Falls die Dateien auf dem Server gespeichert werden:

    Unter welchen Umständen tritt dieses Phänomen auf und wie kann es vermieden werden?

    Herzliche Grüße

    Stefan

      • UweG
      • vor 5 Monaten
      • Gemeldet - anzeigen

       
      Hallo Stefan
      Ich habe eine Verständnisfrage.
      Wie kannst du ein Backup mit Files herunter laden, wenn alle Files gelöscht worden sind?
      Es gab mal eine Ninox Version, wo durch das löschen von Files nicht automatisch auch diese serverseitig gelöscht wurden. Damit wurde der Speicher weiterhin belastet obwohl in der Datenbank das File nicht mehr vorhanden war. Inzwischen ist dieser Fehler behoben worden, aber bei bestehenden Datenbanken können diese serverseitg gespeicherten Files weiterhin vorhanden sein.
      Die vom Support beschriebene Verfahrensweise ist schon richtig, was die Korrektur des Speichers betrifft. Zudsätzlich sollten aber auch alle automatischen und manuellen Backups der betreffenden Datenbank gelöscht werden. Solange diese weiterhin vorhanden sind nützt diese isolierte Aktion nichts.
      Schlecht dabei ist, dass mit manuellen zurückspielen des Backups sich die ID der Datenbank ändert und auch Anpassungen bei dem Drittprogramm, welches über die API auf Ninox zugreift mit der neuen Datenbank ID versehen werdn muss.

      • Icarus_Ralf_Becker
      • vor 5 Monaten
      • Gemeldet - anzeigen

       Zu dem gleichen Thema hatte ich kürzlich auch Mailverkehr mit Jörg und wenn ich es richtig verstanden habe, muss man Stefans Befürchtungen bestätigen. Es scheint tatsächlich so zu sein, dass ein Upload in Ninox auch nach dem Löschen der Datei in der aktuellen Datenbank weiterhin auf dem Server gespeichert bleibt, um beim Wiederherstellen eines Backups zur Verfügung zu stehen. Die Datei wird erst dann vom Server gelöscht, wenn das älteste Backup nach dem Löschen der Datei erstellt wurde. Das fortlaufende Auslagern von Dateien in andere Clouds führt folglich nur zu einer anteiligen Reduzierung des Speicherbedarfs und das auch erst nach einer gewissen Zeit. Umso mehr muss man diesen "Rettungsanker" "Dateien auslagern" für das Speicherplatzproblem von Ninox hinterfragen.

Content aside

  • 4 „Gefällt mir“ Klicks
  • vor 1 MonatZuletzt aktiv
  • 41Antworten
  • 1499Ansichten
  • 17 Folge bereits