Jeg kommenterer etpar innlegg fra Thomas og Ketil under ett, siden
begge to stort sett formidler (slik jeg leser dere) at "Dette er ikke
noe stort å bekymre seg for - vi har løsninger på dette".
Ja, jeg vet at løsninger finnes. Det er ikke der problemet ligger.
Problemet ligger i å *bruke* løsningene! Jeg observerer hva "folk
flest" gjør i andre sammenhenger, og det er ikke stort! Har folk laget
kopier av sine nitratfilm-negativer fra før 1952-53? Hah! Hvor mange
spoler med private lydopptak fra 50-, 60- og 70-tallet på kvarttoms
spolebånd fra tusenvis av Tandberg-opptakere har blitt overført til
mer moderne media? Forsvinnende lite. Hvor mange har sørget for at de
kan mimre til musikken på LP-plater fra sin ungdom, fått den
konvertert til CD? Et ubetydelig antall plater. Hvor mange har fått
gjort jobben så skikkelig at det er samme nytelse å høre på som det
var dengang? En relativt liten andel av det fåtallet som har fått det
gjort. Osv.
Svært mange diigitale systemer har desverre en ganske så usympatisk
feilingskarakteristikk: Det virker tilnærmet perfekt helt til det
plutselig ikke virker i det hele tatt. Selv der vi har et gradvis
forfall, som i GSM ved fallende signalkvalitet, så er systemet
(GSM-kodingen) konstruert slik at vi normalt ikke hører at kvaliteten
går gradvis nedover - problemene kompenseres for så godt det lar seg
gjøre, og det er ganske godt, helt til det plutselig svikter. Med
analoge medier har du som regel langt større sjanse for å redde
ihvertfall noen stumper - ofte ganske mye mer. F.eks. er det relativt
trivielt å avfotografere et 6 x 9 cm negativ til et mer moderne format
- det stilles ikke noe krav til utstyr; det som er lagret på mediet er
direkte tilgjengelig, og det er typisk: Ikke så for digitale formater
- siden vi fjernet oss fra hullkortene har vi vært avhengig av
medie-spesifikt utstyr for å få tak i informasjonen. Når du ikke
lenger får tak i det, så får du ikke tak i *noe*. Følgen er at det
vi i langt mindre grad kan "la det skure" med digitale media. Dette
burde bekymre ganske mange flere mennesker enn det tilsynelatende
gjør.
Post by Thomas Lundquistfor ikke å snakke om standarden og referansekode for å dekode FLAC så
man kan gjøre det selv.
En av de klassiske, *store* guruene i dataverdenen, Donald Knuth, skrev
en serie bøker som han hadde intensjonen om at skulle bli "Bibelen",
en kanonisk samling av algoritmer. Han ville ikke knytte algoritmene
opp mot ett spesifikt språk, så han definerte sitt eget hypotetiske
assembler-nivå språk, "MIX". Tanken var at en beskrivelse som ikke
forutsetter spesifikke abstraksjoner, men er uttrykt i helt enkle
mekanismer, kan generelt benyttes uansett verktøy i programmeringen.
Hva skjedde med "Bibelen"? De tre første bøkene kom ut i en tid da
samtlige som lærte programmering også kunne lese ulike varianter
assemblerkode. Mens han arbeidet med det fjerde bindet, ble
assemblerkoding så godt som totalt erstattet av
medium/høynivå-språk, og nye lesere avviste de tre første bindene
fordi det som skulle være "kildekode" var helt uforståelig. Det
fjerde bindet ble aldri utgitt, selv om manuset var gjennom de første
korrektur-rundene. Bind fem til sju ble aldri skrevet - ingen ville ha
dem, med mindre Knuth skiftet til et mer moderne språk - men han sto
imot presset. Og tapte markedet.
Hvordan tror vi at unge, fremadstormende programutviklere kommer til å
arbeide om tjue, tretti, femti år? Jeg har stygg mistanke om at det
vil ligne adskillig mer på Visual Basic enn på K&R C om tjue år. For
avansert arbeide kan det hende at semi-deklarative språk, i klasse med
dagens XSL og enkelte andre av de XML-baserte språkene, kan ha tatt
over (jeg tror ikke at XML-baserte språk kommer til å ha noen stor
plass om tjue år; jeg nevner dem bare som eksempler på språk som er
like mye deklarative som algoritmiske). Det er *ikke* bare å gi et
C-program til en VB-programmerer som er vant med å velge attributter
fra menyer og assosiere aksjoner med skjerm-elementer uten noen sinne
å ha sett programmet som helhet. Forskjellen mellom et XSL-program,
XPath og denslags, og C er minst like stor som fra C til assembler.
Selv det å gå fra en event-drevet modell (a la Windows-programmering,
der en sentral event-loop dispatcher events til ulike event-loops for
hver sin kontekst) til en monolitisk, sekvensielt algoritmisk modell er
minst like vanskelig som å gå andre veien - og vi har jo sett hvor
vanskelig *det* har vært for programmerere med utdanning fra før
event-loopens tid!
Poenget mitt: Det er ikke bare å si at "Se, jeg har noe tretti år
gammel kildekode - den burde da være grei å implementere!" Nei, det
blir som Knuths MIX - svært få av dagens programmerere kan forholde
seg til algoritmer i det formatet. Ressursbehovet for å gjøre seg
nytte av en slik spesifikasjon er så stort at det ikke er noen aktuell
løsning. Følgen er at dataene dine lever så lenge du selv,
personlig, har mulighet for å ta hand om dem. Jeg stoler heller ikke
på noen visjon om at du selv om tretti-førti år skal skrive om K&R
C-kode til det som er kurante programmerigsspråk på det tidspunktet -
hvis du har bakgrunn fra K&R er faren svært stor for at du ikke har
klart å følge med i utviklingen godt nok til å kjenne de nye
verktøyene. Selv overgang fra monolitiske algoritmer til
event-håndtering, eller sogar til tråd-programmering, har vært et
alt for høyt steg for svært mange med "klassisk" bakgrunn. (Den som
vil overbevise meg om noe annet kan jo prøve å skrive en
FLAC-til-MP3-koder i XSL...)
Post by Thomas Lundquistbåde fordi CDen da vil være veldig avlegs og fordi man
jo fremdeles er usikre på levetiden på selve plata.
Det er vel generell enighet blant de som jobber seriøst med medier at
både CDer og magnetiske media vil ha en levetid som overstiger
levetiden til typiske dataformater med en relativt høy faktor... Om
CDen lever i førti eller i hundreogførti år er ikke særlig
interessant når dataformatene er ukurante etter ti til tjue år. Eller
kortere.
Post by Thomas Lundquistnår det gjelder slik problematikk så er jeg ikke ekstremt redd for
det. det vil være firmaer som spesialiserer seg på å holde gammelt
utstyr vedlike for å kunne påta seg å hente ut data fra arkaiske
systemer.
Jeg gjentar til kjedsommelighet: Problemet er å få folk til å
*bruke* dem. Og hvis for få mennesker bruker dem (som jeg er stygt
redd for), vil grunnlaget for forretningsmessig drift være for svakt
til at firmaene overlever. Finnes det noe firma her i landet som
digitaliserer bilder på Kodak Disc film? (Var det det som het "117
format"?) Hva med Pocket Instamatic ("110 format") - hvem digitaliserer
det? Jeg rett og slett tror ikke på at folk flest sender sine filmer
til utlandet for digitalisering. Og de vil heller ikke sende sine
backup-disker til utlandet for konvertering til andre formater.
Det å gjøre jobben kan, med digitale formater, være en ikke
ubetydelig detektivjobb. Jeg gjorde selv et lite oppdrag for en del år
siden: Fikk noen 8-toms disketter i hånda med beskjed om at eieren
visste hvilke dokumenter som skulle finnes på diskene, men ante
overhodet ingenting om hvilket format! Ikke hva slags system det kom
fra, eller noe slikt. Å få kopiert over diskettene på harddisk til
et disk-image gikk rimelig greit (det ville vært verre i dag!).
Innholdet var bare gurba. Jeg ante ikke hvor jeg skulle begynne - i
alle de tekstbehandlere jeg hadde vært borti, lå ihvertfall ordene
lagret slik at de kunne gjenkjennes... Ingenting lignet. Fant ingen
signatur etter noe komprimerings- elller krypterings-program. Hvis jeg
husker rett, fant jeg ut av det med statistikk (mens jeg trodde filene
var kryptert): De mest brukte byte-verdiene stemte med tegnkoden for
"e"... i EBCDIC! Hvis det er noen som leser dette og spør: Hva f er
EBCDIC???, så illustrerer det poenget. Dengang (dette var på slutten
av 80-tallet) var IBM stormaskiner fortsatt et betydelig element, ikke
bare i administrativ databehandling (som de tildels fortsatt er) men
også i litteraturen. Så jeg hadde ganske direkte tilgang på en
EBCDIC-tabell. .... Når jeg var kommet til det punktet, tok det bare
et par timers arbeide å konvertere det hele til ASCII, og da viste det
seg at alle filene lå ufragmentert på diskettene, ingen problemer med
å tolke fil-indekser og slikt. Og dokumentene var lagret som ren
tekst, uten formatteringskoder. Men å komme fram til det punktet tok
et ukeverk innsats.
Jeg ble spurt til råds for et par år siden om en spole halvtoms tape,
som *trolig* var 7-spors, men det var alt eieren visste om den. Han
ville gjerne vite hva som lå på tapen. Jeg sa det rett ut: Hvis det
ikke er *svært* mye om å gjøre for deg å redde dataene, så vil jeg
ikke anbefale å spandere ressurser på det! Selv om det visstnok er
noen som leser 7-spors tape her til lands i dag (det var et antall år
der det ikke fantes mulighet i hele Norden, men nå skal det være noen
veteranmaskin-folk som har ting i drift), så er det å få tapen over
på disk bare aller første steget. Totalregningen kan ble ubehagelig
høy...
Post by Thomas Lundquistbare med det jeg har av utstyr hjemme vil jeg kunne fikse dine
eventuelle problemer.
Ja, det er *i dag*. Jeg regner "langtidslagring" å starte ved 20-30
år. Finnes utstyret, og er det operativt, om 20-30 år? Vil folk vite
at du har det om 20-30 år? Vil du være villig til å ta imot en
strøm av kunder om 20-30 år?
Folk har jo ikke begynt å oppdage at de savner noe, at det er noe som
skal reddes! Det vil gå et antall år *etter* at redningsoperasjoner
var en kurant ting for at folk skal begynne å etterspørre slikt. Det
er *da* det blir interessant - ikke i dag, som utstyret fortsatt finnes
her og der, og folk ikke har oppdaget hva de har tapt.
Post by Thomas Lundquistdersom f.eks. Linux virkelig blir en reell trussel, kan du være sikker
på at Microsoft vil gjøre alt for å hindre WMA i å virke på Linux.
Jeg ser på WMA mer som et redskap utviklet av MS på oppdrag av
musikk/film-bransjen (og mangler sansen for disse nærmest
konspirasjons-lignende teoriene om at MS hersker bare for å herske) -
kommer stadig tilbake til MP9 som ble lansert med enorm vekt på "øket
sikkerhet", som viste seg å være øket sikkerhet for at du ikke får
spilt musikk eller film uten å betale rettighetshaver...
Post by Thomas LundquistOm du ikke ønsker å la Bill Gates velge operativsystem (og også annen
programvare) for deg, risikerer du å måtte ofre musikksamlingen din.
Det er veldig moteriktig å kritisere MS, men jeg ser langt større
problemer med iTunes og InfoSoc-direktivet og hele konseptet med "music
on demand", der du har "ubegrensede" biblioteker tilgjengelig online.
Biblioteker som kan trekkes tilbake når som helst. Dette er ikke et
MS-påfunn - det er først nå at MS virkelig har skuffet på kull for
å få være med på det toget. Jeg skal så lenge det overhodet er
mulig (og jeg håper det blir permanent) holde meg langt borte fra "on
demand" online-tjenester. Det som finnes i de arkivene er like
forgjengelig som historisk informasjon i "1984". Fjern et tilbud, og
det er som om det aldri har eksistert - ingen spor er igjen.
Post by Thomas LundquistJeg ser klart problemet om vi snakker om proprietær programvare, men
jeg undres på om man vil se det samme med åpen programvare?
Særlig om vi snakker om fritt tilgjengelig, gratis programvare kommer
det inn en annen side: Det er verke noe økonomisk eller
kontraktsmessig incentiv til å drive framover programvare som det ikke
er noen etterspørsel etter. Idealistisk innsats når ingen er
interessert i den dør hen: Når et format, en algoritme eller hva som
helst er på vei ut, er det ikke faglig sett interessant (*det* er
også noe som driver "idealistisk innsats", selv om man kan spørre om
det da ikke er fullt så idealistisk men heller egoistisk...). Ingen
brukere (dvs. ikke-utviklere) av systemet har investert store summer i
det, som de kan ha gjort i en kommersiell pakke, og selv om de har data
knyttet til formatet, har de ingen mulighet for å kommandere fram
ideell innsats...
Min vurdering/spådom: Incentivet for å fortsette ideell innsats på
en døende standard er langt svakere enn tilsvarende for et kommersielt
system. Derfor er det langt større sjanser for at de vil dø en stille
død uten at det er noen til å ta seg av overgangen til neste
generasjon.
Post by Thomas LundquistFinnes det åpne filformater som var i bruk på Unix for 20 år siden
(Unix var gammelt allerede i 1986), som det ikke finnes programvare
for i dag?
Vet ikke, men det finnes formater som fortsatt brukes på Unix, men som
det er svært tynt med support for i andre systemer. Hvor mange
tekstbehandlere kan importere troff/nroff og konvertere til sitt eget
format? Hvor mange kan lese tex-filer? Hvor mange kan konvertere
info-filer til andre formater? ... Vel, for alt jeg vet kan det finnes
konvertere for alle disse, men det er ikke noe du ser overalt. Du ser
drøssevis av importfiltre for utgamle DOS-baserte formater, både på
tekst og bilder og regneark/databaser, men når det gjelder troff/nroff
er det jo ikke *nødvendig*, siden de stedene formatet benyttes likevel
*har* sine verktøy for å bruke dem. Hvem har bruk for å konvertere
en man-page til et annet format? De særingene som bruker tex, de *har*
jo tex, og trenger ikke annet... Og på backup-tapene ligger det
sikkert masse tex-filer som man kan spole inn om tretti år, når det
ikke lenger finnes en eneste maskin som kjører tex.Ingen har noen
sinne spandert ressurser på å skrive en tex-til-<???>-konverter, og
fått portet *den* gjennom maskin- og OS-generasjonene slik at den er
operativ når backupen hentes fram i 2036!
Neida, det *behøver* ikke gå sånn, det *kan* gå langt bedre. Men
det vil skje bare dersom vi får etablert en langt større bevissthet i
det brede lag om at det er et problem. Og jeg snakker ikke bare om det
brede lag av *ikke*-datafolk - det gjelder minst like mye det brede lag
av datafolk! Selvfølgelig er sistnevnte gruppe en god del bevisst
problemene enn "sivilistene", men fortsatt himlande langt fra *nok*!