Obróbka i archiwizacja zdjęć
Witam!
Mam pytanie do dłużej czytających niż ja DFV. Czy był kiedyś artykuł o archiwizacji zdjęć?
Mam na myśli np. budowę macierzy RAID (jakich dysków używać, jakiego oprogramowania). Najlepiej żeby kieszeń kompletnie nie opustoszała a system był bezpieczny i wydajny.
O konieczności wypracowania sobie metody archiwizacji i porządkowania zdjęć, rodzajach zagrożeń dla cyfrowych danych i sposobach zapobiegania im było w DFV 8/10 – Więcej niż ABC – Bezpieczeństwo danych.
Macierze dyskowe testował Marcin w DFV 12/09, 2/11, a o dyskach było 8/09 i 8/08.
Tak w ogóle to mamy już fajną wyszukiwarkę, może się przyda – https://www.dfv.pl/aw/
Po datach wydań widać, że chyba warto odświeżyć temat i zrobić coś kompleksowego. Tydzień temu padł mi dysk w komputerze. Wszystko poszło w niepamięć. Na szczęście najlepsze swoje zdjęcia mam w albumach i dołączonych do nich płytach. Nie straciłam nic ważnego. Mój nauczyciel informatyki w LO ciągle powtarzał – backup to podstawa. Dlatego przydałby się moim zdaniem temat numeru “backup”, albo taki poradnik online jaki jest na temat Lightroom.
Kurde, albo mam jakieś szczęście, albo trafiam na takie dyski, przez ostatnie kilkanaście lat miałem nawet nie wiem ile HDD, zaczynałem jeszcze od takiego 40MB za pół ówczesnej przeciętnej pensji, nosiłem je jako dzieciak z odsłonięta elektroniką w plecaku, woziłem po Polsce, znosiły duuże przeciążenia, pracowały po kilka tysięcy godzin, miałem RAID 0 przez kilka lat, a jedynie jedna Barracuda chyba IX 80GB oznajmiała, że pada, po tym, jak upadła w trakcie pracy, jednak dysk działa nadal, tyle, że jest nieużywany. Czasami oczywiście sypał sie mbr, itp., ale wszystko odzyskiwałem bez pomocy specjalistycznych narzędzi, jedynie to, co dostępne w necie.
Hm, temat backupu (a właściwie nawet szerzej – całego systemu pracy (“workflow”)) jest… złożony i nieprzyjemny. Mam subiektywne wrażenie, że i tamtych artykułów prawie nikt nie przeczytał, bo tam nie ma nic sexy, a wręcz przeciwnie – są racjonalne argumenty za tym, żeby wykonać kawał nieciekawej, uciążliwej i czasochłonnej pracy, która w żaden sposób nie przekłada się na fajne fotki i w ogóle jest jakoś rozbieżna z tym, że fotografia to hobby, pasja i zabawa. Owszem, czasem kogoś nastraszy pad płyty DVD, jakieś bad sectory na dysku, przypadkowe skasowanie katalogu i wtedy nagle sobie przypomina, że warto by jakiś porządek w tym chaosie wprowadzić i zabezpieczyć zdjęcia przed różnymi zagrożeniami. Ale tak na ogół to jakieś sugestie systemowej archiwizacji, ustalenia reguł postępowania z plikami itp. odbierze jako odmianę straszenia końcem świata w kalendarzu Majów.
Chyba że się mylę, wszyscy wyczekują takiego kompleksowego materiału i pasjonują się sposobami archiwizacji danych cyfrowych?
To dokładnie to samo co 20 stron testów aparatów, które nikogo nie interesują a na dodatek opinie o nich od dawna w necie krążą Mnie to nudzi i z reguły omijam tą część czasopisma (tak samo jak artykuły o video). Poza tym chyba celem czasopisma jest edukacja, prawda? Różne cykle rozpoczęliście (części nie skończyliście – fotografia w domowym studio choćby). Waszą rolą jest również w takim razie wprowadzanie czytelników coraz szerzej w tematykę świata cyfrowej fotografii. Ważnym jej aspektem jest backup danych. Założę się, że co jakiś czas, któryś z użytkowników tego forum ma kłopoty z dyskami/płytami… Szukają po forach komputerowych, gdzie siedzą informatycy, którzy używają swojego slangu. Niczego nie można znaleźć za to na forach fotograficznych, które mogłoby uwzględniać specyficzne potrzeby fotografujących. Nikt z informatyków np. nie wie nic o LR i jego ogromnych możliwościach pracy z katalogami. Kolega mi to pokazał. Rewelacja!!!
Nie chodzi o jak napisałeś “pasjonowanie się sposobami archiwizacji danych cyfrowych”, bo już takie ujęcie tematu odstrasza, tylko o archiwizację naszych zdjęć. Widzę, że lekceważysz temat a moglibyście być chyba pierwsi, którzy taki artykuł by zamieścili.
Trochę w międzyczasie poczytałam i poszukałam. Pomagał tez kolega. Wystarczy używać odpowiedniego programu i mieć dodatkowy dysk. Kupiłam dysk zewnętrzny, do tego używam CobianBackup. Nawet ja blondynka ustawiłam sobie (przy pomocy kolegi – ale niedużej ) co, gdzie i kiedy ma się kopiować. Zyskałam sporo na bezpieczeństwie. Wszystko robi się samo w każdą sobotę, po zrobieniu kopii, teraz przyrostowej (tak kolega to nazywa, więc chyba tak jest), komputer się wyłącza, więc nie muszę tego pilnować.
BARDZO FAJNA wyszukiwarka
czy można by zrobić do niej odnośnik ze strony głównej ? aby była łatwo dostępna
BARDZO FAJNA wyszukiwarka
czy można by zrobić do niej odnośnik ze strony głównej ? aby była łatwo dostępna
Khm. Na stronie głównej, pod okładkami trzech kolejnych wydań jest link “Archiwum wydań”, prowadzący właśnie tam…
No to też czekam na chór głosów, że taki poradnik jest potrzebny – np. zamiast testów Na razie nie widzę tłumów, ale poczekajmy jeszcze
Oczywiście, ale nic na siłę. Zresztą poradnik na ten temat był, tutaj niewiele się zmieniło w podstawowym podejściu do problemu.
Jasne, aczkolwiek jest tak, jak napisałaś – ktoś co jakiś czas bywa zainteresowany tematem. Niekoniecznie jest to argument za artykułem w papierowym DFV, ale może rzeczywiście coś do online’u.
Nie chcę Ci psuć humoru, ale… ile zdjęć liczy dorobek kolegi? Przy kilku tysiącach zdjęć w zbiorze LR działa sprawnie, ale przy kilkudziesięciu czy ponad stu tysiącach – robi się nieprzyjemnie ślamazarny. Dla np. fotografów ślubnych, którzy mają na komputerze 1-2 zlecenia naraz, później je obrabiają, sprzedają i pozbywają się “balastu” z dysku, LR jako program katalogujący jest ok, natomiast dla osób, które szukają narzędzia do zarządzania zbiorem z kilkunastu czy więcej lat – już niekoniecznie.
Nie lekceważę tematu. Próbuję zapuścić sondę ile osób jest zainteresowanych tematem i w jakim ujęciu.
Znowu nie chcę Ci psuć humoru, ale nadal nie do końca rozwiązałaś problem. Po pierwsze, jedna kopia to nie kopia. Po drugie, kopie na dyskach twardych nie zabezpiecza przed takimi zagrożeniami jak wirus, trojany czy przepięcie, jeśli pechowo nastąpi w momencie podłączenia dysku zewnętrznego do komputera.
Ok, wrzucę online ten artykuł z 2010 roku. Czekam na dalsze propozycje tematów i zagadnień.
Mogę Ci tylko pogratulować. Mam podobny staż z komputerem i też moim pierwszym dyskiem był model o zawrotnej pojemności 40 MB, a przez te kilkanaście lat z powodu awarii zmieniałem kilka dysków. M.in. byłem właścicielem dysku IBM z tej linii, która okazała się mieć wadę fabryczną powodującą pad między pierwszym a drugim rokiem eksploatacji. Jeden przenośny dysk wyleciał mi z ręki – oczywiście, mój błąd, niemniej to jest typowe ryzyko z dyskami przenośnymi. Jeden Seagate padł bo padł – ładnie z jego strony, że wcześniej zaczął sygnalizować problemy szybkim wzrostem bad sectorów, więc zdążyłem przenieść istotne dane. Poza tym kiedyś padł mi zasilacz w komputerze, na szczęście padł sam, nie zabierając nikogo ze sobą, a zdarza się, że padający zasilacz “na do widzenia” puszcza przepięcie na inne podzespoły, czasem je paląc. Kiedyś zresztą przepięcie z sieci usmażyło mi płytę główną, do której podłączona była sieć. Miło, że nie miałeś żadnych problemów, ale to nie znaczy, że się nie zdarzają. I, odpukać w niemalowane, że Tobie się nie zdarzą.
Pamiętam czasy, kiedy przed wyłączeniem komputera trzeba było w DOS wydać komendę PARK, żeby dysk zaparkował głowice przed zanikiem zasilania. Sprzęt klasy XT to był, wtedy technologiczny szał. Procesory taktowano kilkoma megahercami. Ale już wtedy uczono, że ważne dane należy mieć na kopii Do kopii najlepsze były streamery taśmowe, ale cena powalała. Ludzie normalni używali dyskietek 5,25 cala, 360kB.
Ale ja nie twierdzę, że ci, którym zdarzają się “pady” to wyjątki, to raczej ja jestem pod tym względem wyjątkiem. Zresztą, jak już ktoś tu napisał, zwolennikiem robienia backupów jest się od pierwszego padnięcia dysku Podobnie jak padnięcia płyt głównych, czy zasilaczy, nie zdarzyło mi się nigdy żadne przepięcie ani nic się nie spaliło, jedynie raz po włożeniu uszkodzonej kostki ramu padła mi płyta główna, ale było to jakiś tydzień przed końcem gwarancji na nią i skończyło się bezkosztowo. Sam zresztą mam świadomość, że moja “archiwizacja” jest tylko namiastką, najważniejsze dane i tak trzymam w głowie, a kilkadziesiąt najważniejszych dla mnie zdjęć sobie wywołałem, bo wartości jako takiej to one nie mają, szkoda papieru na to. Po co to piszę? Ano po to, żeby potwierdzić konieczność mówienia o archiwizacji, może nie w papierowej edycji, gdzie każda strona to wymierne koszty, ale jakiś artykuł w necie może chociaż części czytelników nasunie coś na myśl. Większość i tak oleje temat do pierwszej utraty jakichś ważniejszych danych, taka ludzka natura
Ok, liczę jako głos za
Jak najbardziej za. To, że wcale nie najważniejsze rzeczy są najchętniej dyskutowane doskonale widać chociażby po ilości tematów/postów w pierwszych dwóch kategoriach, czyli Sprzęt i Technika Fotogragowania, proporcje powinny być raczej odwrotne, jednak większość ludzi woli deliberować nad technikaliami, często zapędzając się w pixel peeping, a zapominać o robieniu zdjęć. Tak samo temat o archiwizacji danych nigdy nie będzie tak popularny (no chyba, że nagle padłoby kilkaset tysięcy dysków w Polsce ) jak temat o tym, co nowego wypuści Canikon, czemu to będzie dobre/złe i dlaczego takie drogie. Mimo wszystko warto czasami poświecić kagankiem oświaty, w miarę możliwości i środków.
No tak głupio nieco zytować samą siebie, ale…
Dane mam na dwóch dyskach (jeden w kompie, drugi to przenośny odłączany od kompa).
Kolega jest fotografem ślubnym, ale nie tylko. Ma w bazie podzielonej na katalogi “lajtrumowe” (każde zlecenie osobny katalog) ponad 100 tyś. zdjęć. To raczej nie miało. Wszystko opisane. Potrzebuje zdjęć klienta z roku 2009, sprawdza na jakim ma to dysku, podłącza, wczytuje katalog i ma wszystko, łącznie z obróbką dng, selekcją itp.
Trochę mu się “nauprzykrzałam” ostatnio. Ma skubaniec porządek, że strach.
I chwała Ci za to
Moja propozycja backup online – koniec z płytkami, koniec z pendrive – gdy było to 100GB to takie nośnik dawały rade ale teraz. Producenci dają zawsze 1-5GB do testów więc można popróbować co nam odpowiada. Ceny też spadają gdyż zainteresowanie na polskim “specyficznym” rynku niewielkie ( swoją drogą ciekawe czy w związku z błogą niewiedzą czy kasą). W każdym bądź razie są również polscy producenci programów do backup a z nimi można negocjować ceny.
Ostatni tydzień spędziłem na odzyskiwaniu zdjęć z przenośnego dysku, na którym miałem niestety jedyny ich egzemplarz (kopię/backup miałem robić, ale z różnych względów odkładałem). Kiedy już miałem backup zrobić, bo za Chiny nie dało się na nim nic nagrać (dysk poinformował mnie w ostatnią niedzielę pod Windowsem, że ma 500GB wolnego, ale z kolei Ubuntu stwierdziło, że nie ma na nim miejsca), to po ponownym podłączeniu, Windowsy poinformowały mnie, że mam 1TB dziewiczo czystej powierzchni, z której mogę skorzystać po uprzednim formacie.
Nie skorzystałem, tylko zacząłem szukać programów do odzyskiwania danych. Ostatecznie po kilku dniach ciężkiej pracy programu, na drugim dysku znalazły się odzyskane zdjęcia. Obecnie robię z nimi porządek (ciągle jeszcze bez backupu).
Ciekawostka. Zdjęcia z Samsunga WB750 odtworzyły się z rozszerzeniem mpo, a nie jpg. Domyśliłem się, że są to zdjęcia tylko dlatego, że zajrzałem do środka pliku (oraz dlatego, że kazałem tylko zdjęcia i pliki archiwów odzyskać). Drugą ciekawostką jest to, że niektóre z plików mpo mają ponad 50MB i jako zdjęcia można je obejrzeć. Myślałem, że to może filmy, ale się nie odtwarzają.
Pliki RAW w formacie DNG wydają się być większe niż wcześniej były (chociaż to może wrażenie). Ale dają się oglądać, więc są ok.
Sporo plików odzyskało się z datą wykonania zdjęcia zapisaną w pliku, a nie tylko w exif-ie. Dzięki temu szybciej można je było porozrzucać po katalogach. Sporo jednak ma zapisaną w pliku datę odzyskania, a data wykonania zdjęcia zapisana jest jedynie w exif-ie. Można w Windows7 pogrupować zdjęcia po dacie wykonania (pobranej z exif-a) i tak wybierać zdjęcia, ale jest ograniczenie. Bo Windows7 grupuje starsze zdjęcia w jedną grupę, a nie tak jak mi się wydawało, że każde zdjęcie trafi do zgodnej ze swoją datą wykonania grupy. Więc i tak trzeba najechać na zdjęcie, żeby zidentyfikować kiedy było zrobione.
Przede mną weekend dalszych porządków, ale już ze sporo lżejszym sercem.
Ci co jeszcze nie mają, niech backup robią. Lepiej się uczyć na cudzych (czyli np. moich) błędach.
Jestem Polką nie da się ukryć (jestem z tego dumna jakby co) i chyba dlatego za Chiny Ludowo-Demokratyczne nie wierzę w te onlajny. W życiu nie dam komuś swoich danych, żeby robił z nimi co chce. Poza tym te firmy dają jakieś miarodajne gwarancje? Podpisuje się jakąś umowę? A jak im serwer padnie? Wiem, wiem… pewnie robią backupy backupów. Nie wierzę i tyle.
Backupy i gwarancje mogą sobie być, gorzej jak taka firma padnie. Co już miało miejsce.
A zanim jeszcze firma padnie pojawiają się inne problemy – np. z przepustowością łączy. Ile czasu zajmie przepchnięcie RAW-ów z jednej udanej sesji?
Łączę się w bólu.
Nieźle zabałaganione. Fakt, że system widzi 500 GB, a Ty nie możesz wgrać nic więcej, nie zapalił Ci lampki ostrzegawczej?
To podziel się jeszcze który program był skuteczny.
Ludzie się dzielą na tych, co robią backup i na tych, co będą robić.
Nieźle zabałaganione. Fakt, że system widzi 500 GB, a Ty nie możesz wgrać nic więcej, nie zapalił Ci lampki ostrzegawczej?
Zapalił. Ale nie zdążyłem już z tego ostrzeżenia skorzystać.
To podziel się jeszcze który program był skuteczny.
Ściągnąłem program TestDisk http://www.cgsecurity.org/wiki/TestDisk. Najpierw za pomocą testdisk_win.exe usiłowałem naprawić MFT (http://pl.wikipedia.org/wiki/Master_File_Table), bo tu był problem. Ale ostatecznie skorzystałem z zawartego również w tym pakiecie programu photorec_win.exe, który sektor po sektorze czyta dysk i stara się odczytać plik. Odzyskałem bardzo dużo, ale właśnie zapuściłem jeszcze raz z opcją odczytu częściowo uszkodzonych plików, bo jednak nie wszystko się odczytało.
Zdaje się, że jeszcze GetDataBack http://www.runtime.org/data-recovery-software.htm jest ok. Ale jeszcze nie korzystałem.
Ludzie się dzielą na tych, co robią backup i na tych, co będą robić.
Uzupełnię jeszcze historię odzyskiwania. Męczyło mnie, że nie odzyskałem filmów, więc postanowiłem skorzystać jeszcze z kolejnego programu. Recuva. Od ostatniego odzyskiwania zrobiłem na dysku szybkie formatowanie (bo problem był z rozsypanym systemem plików, a nie z dyskiem), ale nie robiłem żadnych zapisów na nim. Uruchomiłem program z opcją wyszukiwania filmów i głębokim skanowaniem. Długo trwało wyszukiwanie, ale ostatecznie odzyskałem filmy. W dodatku z oryginalnymi nazwami (TestDiskowi to nie wyszło). Zachęcony takim efektem postanowiłem jeszcze raz odzyskać raw-y. Za pierwszym razem wybrałem opcję wyszukiwania zdjęć (raw-y też miały się wyszukać), ale nie odnalazł plików dng. Więc za drugim razem kazałem wyszukiwać pliki z rozszerzeniem dng. Odnalazł je i odzyskał. Nieuszkodzone, z oryginalnymi nazwami i oryginalnymi datami utworzenia (chociaż też nie zawsze). Ale 2 kopię zdjęć robię już na bieżąco.
Ja korzystam. Zobaczymy za 100 lat czy się sprawdza
http://www.benchmark.pl/aktualnosci/M-disc_niezniszczalne_DVD_przetrwa_1000_lat-36367.html
No to u mnie wygląda to teraz tak:
Mam w domu trzy komputery (win7 home), na których pracujemy na przemiennie ja i żona. Oboje zajmujemy się zdjęciami.
W sieci lokalnej znajduje się dysk sieciowy Synology DS112 (+ WD Red 3TB). Na nim (za pośrednictwem iscsi – w razie czego służę informacjami) tworzę iSCSI targety, które są widziane jako dyski lokalne w komputerach. Za pomocą programu systemowego w Win7 Kopia Zapasowa tworzę pełen obraz systemu każdego komputera na NAS-ie. Czyli mamy dane z komputerów zduplikowane na serwerze plików. Użycie tego programu ułatwia (przynajmniej w teorii – nie sprawdzałem tego jeszcze) odtworzenie zawartości całego komputera po jego ew. padzie, co przyspiesza powrót do stanu sprzed uszkodzenia, co ważne jest przy nie cierpiących zwłoki zleceniach.
Teraz tak: pewne dane (główne repozytorium zdjęć “gotowych”) znajduje się na NAS-ie w udziale sieciowym (żeby wszystkie komputery domowe miały dostęp do wszystkich zdjęć). Do NAS-a podłączona jest po USB 2.0 obudowa z dyskiem WD Green 3TB. Na Synku uruchomione są procesy backupu udziału sieciowego oraz obydwu targetów iSCSI (a co, kto bogatemu zabroni).
W ten sposób dane z komputerów są w trzech (choć to niekonieczne) różnych miejscach, a dane z udziału sieciowego na NAS-ie – w dwóch różnych miejscach.
Docelowo mam zamiar postawić drugi Synology (lub inny NAS za pomocą np. protokołu rsync, albo Freenas lub OpenMediaVault) w innej lokalizacji geograficznej (tzn. u teściowej), a łączność m. NAS-ami nawiązana będzie za pośrednictwem tunelu VPN m. routerami (na Tomato). Wtedy dopiero poczuję się bezpiecznie.
Teraz oczekuję miażdżącej krytyki tego rozwiązania ze wskazaniem na merytoryczną dyskusję.
Pyzdra.
Jestem pod wrażeniem.
A ten NAS potrafi bootować komputer, w którym padł master sector?
Masz cały czas wszystko online? Są możliwe dwa czarne scenariusze – przepięcie, które usmaży wszystko podłączone do sieci, oraz atak hakerski/wirus, który jak wlezie, to uzyskuje dostęp do wszystkich zasobów i wszystkich ich backupów.
I te backupy całych partycji dysków będziesz przepychał do teściowej? Aż tak fajny upload masz?
Teoretycznie tak, ale trzeba na NAS-ie odpalić serwer DHCP i w jego ustawieniach należy wskazać MAC adres karty sieciowej komputera oraz obraz systemu, z którego zbootuje system przez sieć. Ale to nie jest mój przypadek.
Ja mam zamiar (jak wspomniałem, jeszcze tego nie przetestowałem) w razie padu systemu uruchomić nowy system z płyty CD/DVD, następnie podmontować target iSCSI (gdzie są kopie zapasowe systemu) oraz odpalam program Kopia Zapasowa w trybie odzyskiwania systemu.
Przetestuję to, gdy wpadnie mi w ręce jakiś dysk 2,5″, którym podmienię dysk z działającym i zdrowym systemie w laptopie.
Słuszna uwaga, dlatego docelowo drugi dysk sieciowy będzie w innej lokalizacji. W chwili obecnej chronię się przed padem elektroniki NAS-a lub dysku w NAS-ie. Poza tym NAS wisi na UPS-ie + listwie filtrującej. Przymierzam się do skonfigurowania NAS-a do płynnego jego wyłączenia przy rozładowaniu UPS-a do poniżej paru % (prawie wszystkie współczesne UPS-y mają gniazdo USB lub RS232 pozwalające na komunikację z serwerem).
Przed tym scenariuszem nie ma obrony (nie wliczając kopiowania na nośniki Read Only, co od pewnego woluminu danych nie wchodzi w grę). Trzeba zachować zdrowy (i mocno subiektywny) kompromis między prawdopodobieństwem utraty danych a kosztami zabezpieczenia przed taką sytuacją.
Pierwszy, pełny backup robi się w sieci lokalnej, następne – przyrostowe – mogą być robione po niemal dowolnym łączu (rsync + ssh + kompresja). Protokół rsync nawet nie przesyła całych zmodyfikowanych plików, tylko ich zmienione obszary.
Podczas testów (komputer na Wi-Fi N do routera, potem po 1GbE do NAS-a, 280GB danych) pierwszy backup via rsync: 36h, każdy następny co 24h (w trakcie których komputer był normalnie używany) do 30 min.
Filmów nie obrabiam – na taką sytuację zastosowałbym inne rozwiązania.
Miłego.
Przed tym scenariuszem nie ma obrony (nie wliczając kopiowania na nośniki Read Only, co od pewnego woluminu danych nie wchodzi w grę). Trzeba zachować zdrowy (i mocno subiektywny) kompromis między prawdopodobieństwem utraty danych a kosztami zabezpieczenia przed taką sytuacją.
Backup np. co tydzień lub dwa na 2-3 pojedyncze dyski, przechowywane offline? W razie uaktywnienia się wirusa tracisz co najwyżej dorobek ostatnich tygodni.
Przed tym scenariuszem nie ma obrony (nie wliczając kopiowania na nośniki Read Only, co od pewnego woluminu danych nie wchodzi w grę). Trzeba zachować zdrowy (i mocno subiektywny) kompromis między prawdopodobieństwem utraty danych a kosztami zabezpieczenia przed taką sytuacją.
Backup np. co tydzień lub dwa na 2-3 pojedyncze dyski, przechowywane offline? W razie uaktywnienia się wirusa tracisz co najwyżej dorobek ostatnich tygodni.
I tak właśnie robiłem, do czasu gdy zauważyłem, że zapominam o kolejnych backup-ach na nośnik off-line i kopie stawały się coraz starsze, a noszenie dysków poza mieszkanie (przeciw kradzieżom i/lub pożarowi/zalaniu mieszkania) naraża je na uszkodzenie (sam tego doświadczyłeś co najmniej raz). A chronię nie tylko zdjęcia, ale również bieżące projekty żony, przy których nie możemy sobie pozwolić nawet na utratę paru dni pracy.
Poza tym zgrywanie danych na dyski zewnętrzne wcale, ale to wcale nie chroni ich przed zalęgnięciem się na nich jakiegoś robactwa. Są wirusy, które tylko czekają na podłączenie pamięci masowej USB, żeby się tam skopiować.
Pamięć zewnętrzna nie rozwiązuje problemu. Podobnie jak moje rozwiązanie.
Z innej beczki. Backup jest o tyle dobry, o ile da się z niego odzyskać dane. Dlatego raz na jakiś czas należy dokonywać próbnego odtworzenia struktury plików, np. do c:/temp. ]
- You must be logged in to reply to this topic.