Gelöschte Fotos wiederherstellen

Heute möchte ich wieder einmal auf eine Software hinweisen, die ich zwar schon erwähnt hatte, mir allerdings gerade quasi den sprichwörtlichen Arsch gerettet hat. Gestern morgen wollte sich meine bessere Hälfte mit ihrer Freundin Fotos anschauen. Genauer gesagt die Fotos unseres Urlaubs in Rhodos. Irgendwann meinte die bessere Hälfte, dass die Fotos nicht zu finden seien.

Was war passiert? Irgendwie mussten bei den Kopieraktionen (oder auch hinterher) auf mein neues NAS die Fotos abhanden gekommen sein. Das Backup / die Synchronisation per Robocopy brachte bei mir auch nichts: mit dem Switch /MIR löscht man auch am Ziel alles, was an der Quelle nicht mehr vorhanden ist.

Da machte sich bei mir natürlich Hektik breit. Dokumente? Nichts ist so wichtig, dass ich es nur in Binärform auf der Platte hätte. Musik? Meine CDs kann ich auch wieder rippen, gekaufte Musik kann ich ein weiteres Mal herunter laden. Aber Fotos? Klar, könnte man auf DVDs brennen. Doch was ist, wenn man auch diese nicht mehr lesen kann? Bei mittlerweile über 50 Gigabyte Fotos wird das schwierig. Dennoch waren mir die Fotos sehr, sehr wichtig. Sind halt Erinnerungen.

Keiner Wiederherstellungssoftware gelang das Erkennen meinen Netzlaufwerkes. Ich probierte diverse kostenlose Programme als auch kostenpflichtige Testversionen aus. Nichts half. Auf meinem Windows-PC, auf dem die Sicherungen per Robocopy landen konnte Recuva & Co zwar die Ordner und Files „sehen“, aber nicht korrekt wiederherstellen.

photorec

Dann erinnerte ich mich daran, dass ich ja mein MacBook mit im Urlaub hatte und dort immer abends die Fotos betrachtet hatte. Also mal eben die Photorec angeworfen, was ja ein Teil von Testdisk ist. Eine Software, die ich hier schon einmal Schritt für Schritt erklärt hatte. Diese Open Source Software ermöglicht es euch, eure Festplatte nach verlorenen Dateien zu durchsuchen. Dieses kann man nach Dateityp eingrenzen. Wer so nach verlorenen Dateien sucht, der sollte Zeit mitbringen: auf meiner 500 Gigabyte-Systemplatte kündigte die Windows-Version von Photorec „mal eben“ 72 Stunden Wiederherstellungszeit an. Zum Glück konnte ich in der Zwischenzeit 1,2 Gigabyte Fotos mit der Mac-Variante von meinem Book retten.

Was habe ich daraus gelernt? Fotos sind Erinnerungen und somit äußerst wertvoll. Ich werde mich weiterhin nicht auf ein NAS im RAID-Modus verlassen. Weiterhin werde ich Fotos automatisch per Robocopy sichern, allerdings einstellen, dass gelöschte Quelldateien nicht am Ziel gelöscht werden. Photorec & Testdisk ist so weiterhin mein Favorit in der Wiederherstellung gelöschter Dateien. Übrigens werden nicht nur Festplatten unterstützt sondern auch SD Karten & Co. Die Software ist kostenlos. Wer wie ich wichtige Fotos oder Daten retten konnte, der kann dem Autor über seine Webseite eine Spende via PayPal zukommen lassen. So wie ich gerade. Denn meine Urlaubserinnerungen in Fotoform sind mir einiges wert.

Gefällt dir der Artikel? Dann teile ihn mit deinen Freunden.

Avatar-Foto

Hallo, ich bin Carsten! Ich bin gelernter IT-Systemelektroniker und habe das Blog 2005 gegründet. Baujahr 1977, Dortmunder im Norden, BVB-Fan und Vater eines Sohnes. Auch zu finden bei X, Threads, Facebook, LinkedIn und Instagram.

Neueste Beiträge

Mit dem Absenden eines Kommentars stimmst du unserer Datenschutzerklärung und der Speicherung von dir angegebener, personenbezogener Daten zu.

64 Kommentare

  1. SOCIALBREAKZ says:

    Ist vielleicht a bisserl offtopic, aber vielleicht kann mir ja jemand helfen.

    Mein Netbook stand der ganzen Gruppe im Ostseeurlaub zur Verfügung. Ich habe meinen USB-Stick mit TrueCrypt vollverschlüsselt. Leider hat aber jemand –im Arbeitsplatz– die Formatierung angeklickt. (Nein, nicht die TrueCrypt-Formatierung). Kann man das rückgängig machen?

    Bin dankbar für jede Hilfe!

  2. Ich nutze eigentlich immer kostenlose Programme, aber bei gelöschten Daten lasse ich vorher dann doch lieber erst R-Studio drüberlaufen. Denn wenn dort nichts gefunden wird, brauche ich auch kein anderes Programm zur Wiederherstellung benutzen.
    Zitat:
    „R-Studio ist ein Produkt aus der Familie der leistungsfähigen und kosten-effektiven Software zum Löschen und wiederherstellen von Daten. Mit seiner neuen Wiederherstellungstechnik ist es eines der besten Programme, wenn es um die Wiederherstellung von Daten auf FAT12/16/32, NTFS, NTFS5 (erstellt oder aktualisiert von Windows 2000/XP/2003/Vista), Ext2FS/Ext3FS (LINUX-Dateisystem) und UFS1/UFS2 (FreeBSD/OpenBSD/NetBSD) geht. Es funktioniert sowohl auf lokalen wie auch auf Netzlaufwerken, dabei ist es egal, ob die Partitionen formatiert, beschädigt oder gelöscht wurden. Mithilfe von flexiblen Parametern haben Sie die volle Kontrolle über die Wiederherstellung der Daten.“
    http://www.data-recovery-software.net/de/

    Und ich meine 80 euronen sind für mehrere tausend bilder angemessen 😉

  3. Ach ich sehe gerade sind ja 80 USD. Also doch noch günstiger.

  4. Das sicherste Backup sind voll ausgedruckte Fotos oder ?!!!!
    Also ich hatte mal einen Totalausfall meiner externen Platte. Viele Fotos unwiderbringbar vernichtet. So was merkt man sich. Also auch mal Fotos entwickeln lassen. Kommt ja heute auch recht billig bei den vielen Rabatt- und Neukundenaktionen.

  5. Wundert mich, dass hier so auf dem Standpunkt RAID ungleich Backup rumgeritten wird, während andererseits nichts zu der ach so tollen „Backup“-Strategie von Caschy gesagt wird.

    Also zum Mitschreiben: Synchronisieren != Backup.
    Es bringt absolut nichts, ein „Backup“ so zu gestalten, dass das Ziel nicht nur vom Vorhandensein, sondern auch vom Nicht-Vorhandensein abhängig gemacht wird. Ist doch genau dasselbe Ergebnis wie beim Raid: wenn der Benutzer etwas (absichtlich oder nicht) in der Quelle löscht, ist es irgendwann im Ziel auch weg. Das kann nie und nimmer der Sinn eines Backups sein. Wenn man schon so komplexen Kram wie Robocopy nutzt, sollte man auch wissen, was man tut (und warum man tut).

    Aber schön, dass man noch etwas retten konnte. 🙂

  6. In dem Beitrag (den ich vorher überlesen hatte) steht, wie Du es _jetzt_ machst, also wohl sicherer als vorher. Naja, ich hatte mich vorher nur gewundert, dass Du öfter mal Werbung für Robocopy machst, aber es dann selber nicht geschafft hast, ein Backup statt einer Synchronisation zu starten (gelöschte Quelldateien auch im Ziel löschen). War das Absicht gewesen?

    Bei mir fällt nicht soviel „Material“ fürs Backup an. Ich nehm dann ab und zu eine externe Festplatte, sage im Freecommander, er soll alle neuen/neueren Dateien von Quelle zu Ziel kopieren. Genügt bei mir vollkommen, was so die persönlich angefertigten Stücke angeht. Musik und Filme sind nicht so wichtig, und eine Kamera für Fotos hab ich (noch) nicht. Wenn’s soweit ist, komme ich bestimmt wieder hierauf zurück. 😉

  7. Jedem, der sich (noch dazu so ausführlich wie Caschy) mit dem Thema Backup beschäftigt ist es wohl schon mal passiert, das „irgendwelche“ Dateien aus „irgendeinem“ Backup nicht mehr auffindbar oder nutzbar waren – so ging es mir mit dem Datenbank-Backup meines alten Blogs: Datei physikalisch (auch in korrekter Grösse vorhanden), aber leider nicht (mehr) lesbar.

    Und das falsche Setzen eines Schalters kommt leider vor, meine eigentlich als „inkrementell“ angelegte Sicherung stellte sich ähnlich wie bei Caschy als simple Synchronisation dar – Quelldatei weg >> Zieldatei auch weg. Blöd, aber nicht zu ändern.

    Was die RAID-Thematik betrifft:
    Auch ich bediene mich öfter des Operators !=, der für „ungleich“ bzw. „ist nicht“ steht und weise freundlich (aber bestimmt!) daraufhin, das ein RAID ein Backup _NIEMALS_ ersetzen kann. So schlummert alles, was für den täglichen Zugriff auf dem RAID-System meines NAS liegt, als ständig aktualisierte Kopie auf einer externen Platte. Man stelle sich nur vor, der Blitz zerschiesst das NAS samt seiner zwei RAID-Platten. Da würd ich aber blöd aus der Wäsche schauen… :-\

  8. Ich sichere zusätzlich zur externen HDD auch noch auf Online-Festplatten, die gibt es mittlerweile schon mit 50 GB, das reicht für die allerwichtigsten Dinge.

  9. @Jörg:

    Gegen physikalische Fehler kann man leider nicht viel machen, da hast Du recht. Vielleicht noch einen zusätzlichen Sicherungsplatz einräumen, indem das Backup wieder (automatisiert) gesichert wird. Mir wäre das zuviel Aufwand für alle Daten, da ich nicht über den notwendigen Sicherungsplatz für „alles“ verfüge. Somit nur die erwähnten eigenen Dateien, die Diplomarbeit (die ist bis zu 5x vorhanden mit Versionsgeschichte), das genügt mir.

    Das Setzen falscher Schalter kann vorkommen, ist für mich aber nur ein Beweis dahingehend, dass das Backupprogramm zu komplex ist. Wenn Sicherheit durch falsche Bedienung leiden kann, bewirkt es das Gegenteil. Zudem möchte ich genau wissen, was ein Programm macht, wenn es nicht ausschließlich Daten zusätzlich anlegt, sondern Dinge überschreibt oder löscht. Hier im Blog gab’s ja schon einige Tipps zu Backupprogrammen, aber bei vielen gab es keine Liste, was warum wohin kopiert oder gelöscht wird. Deswegen nehme ich auch Robocopy und seine GUIs nicht. Zuviele (nicht immer notwendige) Optionen, und ich weiß im Vorfeld nicht, was mit den Daten passieren wird.

    Dann nehme ich lieber den FreeCommander, der hat eine Synchronisation, bei der man wenige (sinnvolle) Optionen hatt und zusätzlich wirklich für jede Datei sieht, wo sie herkommt (Quelle/Ziel) und was mit ihr passiert. Leider fehlt hier eine Option, mehrere Verzeichnisse automatisiert zu sichern. Sonst wäre es ideal und vor allem verwendungssicher.

  10. Die in deinem Commander eingesetzte Funktion ist auch nur eine GUI für irgendeinen Prozess.

  11. Wegen RAID: haben die Leute hier, die das verwenden, irgendeine Datenbankanbindung für einen Webshop oder eine Homeverzeichnis-Struktur für 100 Benutzer, sodass absolute Vefügbarkeit gewährleistet sein muss? Kann ich mir ehrlich gesagt nicht vorstellen. Gerade im Heimbereich nicht. Es ist deutlich wahrscheinlicher, dass irgendeine Software, Virus oder der Benutzer aus Versehen Daten löscht — dagegen hilft ja ein Backup. Aber Festplattenausfall? Wie oft kommt der vor, im Verhältnis gesehen? In vielen Fällen ist eh gleich das ganze Ding (z.B. NAS) hin.

    Ein RAID anzulegen halte ich für einen großen Verwaltungsaufwand. Es kostet mehr Geld (weil man zusätzlich noch Platz für das Backup braucht), es verbraucht mehr Strom, erzeugt Wärme, und im Fall der Fälle dauert die Wiederherstellung ähnlich lange wie das Einspielen eines Backups. Der einzige Vorteil ist tatsächlich die absolute Verfügbarkeit, aber ist die im Heimbereich wirklich notwendig?

  12. @Caschy: ja natürlich, aber ich *sehe* vorher, was gemacht wird, und es gibt klare Optionen, die dort heißen „keine Synchronisation, sondern Backup“. Dann bin ich mir sicher, dass keine Dateien im Backup gelöscht oder überschrieben werden.

  13. @Rainer: Behauptung: ein NAS mit RAID ist einfacher einzurichten als ein weiterer PC zu Backupzwecken. Mir geht es auch um Verfügbarkeit. Home Office & Co 🙂

  14. Hm, ich hab ein NAS noch nie eingerichtet, von daher glaub ich dir mal, dass da ein RAID ebenso leicht zu konfigurieren ist. 🙂

    Realistisch betrachtet wird sich für mich ein Raid wohl nie lohnen. NAS ist zu langsam, teuer und stromfressend (wird vielleicht mal besser), mein Backup lege ich auf externen (nackten) Platten an, die eben auch nicht immer angestöpselt sind. Ich hab mir das angewöhnt, einmal die Woche die 15 Minuten zu opfern um das Backup selbst anzufertigen. Einen zusätzlichen PC brauch ich nicht, nur einen Einschubslot für die Platten.
    Den Rest erledigt die Wahrscheinlichkeitsrechnung: einen Festplattenausfall hatte ich noch nie. Verlorene Daten aufgrund von eigener Blödheit schon einige. 😉

  15. Eine NAS lohnt sich immer wenn die internen Platten deines PC´s voll sind, bzw. wen du mehrere PC oder in meinem Fall mehrer Dreamboxen hast die auf dieselben Daten zugreifen müssen.

    Ob eine NAS teuer ist, naja ist relativ. Jedenfalls ist eine NAS mit 4 Platten einfacher zu handeln als 4 USB Platten zumal das in meinem Fall ohnehin unpraktisch währe (habe das jahrelang gemacht).
    Der Stromverbrauch ist ehrlichgesagt Peanuts wenn ich bedenke was mein Plasma so wegsaugt(oder Kühlschrank/Herd etc) außerdem habe ich es nur an wenn ich es brauch) Selbst wenn ich von woanders mal auf NAS zugreifen möchte, habe ich die Möglichkeit das ding aus der ferne aufzuwecken.
    Und langsam kann ich nicht bestätigen, ich habe viele Programme auf der Nas die ich dann auch von dort aufrufe und auch damit arbeite. Sicherlich, der Programmaufruf ist geringfügig langsamer als von der internen platte und kommt natürlich auch auf den Umfang der Programme an, aber es ich durchaus möglich.
    Aber ein Raid finde ich persönlich auch verschwenderisch aufgrund des geringen Risikos eines Plattenausfalls, aber ein Raid wegen eines höheren Datendurchsatzes ist natürlich ok (Nur in Verbindung eines extra Backups zu empfehlen.)

  16. @ Rainer:

    Mein Senf dazu:
    – wenn das NAS teuer genug ist, dann ist es auch schnell. Und ist auch nicht ’stromfressend‘.
    – heutzutage sind HDDs sehr groß, wenn ich mir ne neue zulege dann gleich 1 TB od. 750 GB. Die Frage ist dann für mich, wohin und mit welchem Aufwand soll ich das noch (ab)sichern? Also ein NAS mit RAID, wenn eine Platte kaputt kein Problem. Was mache ich wenn in meinem PC ne 750 GB HDD abraucht? Das heißt bestenfalls sehr viel Arbeit, wenn man alles gesichert hat.
    – Ich benutze NAS auch deswegen, weil ich so Problemlos in verschiedenen Räumen Musik hören od. Filme schauen kann und das eben ohne PC, also spare ich dadurch auch Strom, für Bittorrent gilt das selbe, läuft auch ohne PC. FTP Server wäre der nächste Grund, ich lasse mir nachts per FTP-Push größere Dateien draufschieben, auch wieder ohne das ich dafür den PC brauche.
    Nicht zuletzt kann ich auch von ausserhalb auf meine Sachen zugreifen, dafür müsste dann sonst ja auch mein PC ständig laufen.
    Matze

  17. Cashy: „Ich habe ja auch n Flickr-Pro Account, da kann ich eigentlich ja auch alles hoch schieben.“

    Genau so mache ich das auch schon lange. Neben der (für Fotos) genialen Flickr Lösung mache ich noch Timemachine und sporadisch ein Backup auf mittlerweile 3 USB Hds…
    Ich fühle mich eigentlich sicher, oder sollte ich mir doch noch Gedanken machen? Meine Fotos zu verlieren wäre der absolute Alptraum.

  18. Womit schiebst du deine Fotos auf Flickr hoch?

  19. Da Flickr leider kein FTP unterstützt, pfeif ich die Sachen per Plugin (http://regex.info/blog/lightroom-goodies/flickr mittlerweise extrem stabil und komfortabel) direkt aus Lightroom (sehr gute Software) auf Flickr oder manchmal direkt per Webformular im Browser. Funktioniert im Browser wirklich erstaunlich gut…

Es werden alle Kommentare moderiert. Lies auch bitte unsere Kommentarregeln:

Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen. Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte - gerne auch mit Humor. In jedes Thema Politik einbringen ist nicht erwünscht.

Du willst nichts verpassen?

Du hast die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den Hauptfeed abonnieren.