Arkiv for kategorien “Nettsteder”

Nå skal SNL ansette fagredaktører som skal avgjøre hvilke tekster som skal inn i den «godkjente» delen av det digitale SNL. Hvis tekstene i SNL ikke blir lisensiert med Creative Commons, noe vi vel regner med siden dette ikke sier spesifikt i «reklamen», så tror jeg at SNL kan risikere å få et par litt uvante utfordringer…

Hva om en av fagredaktørene godtar noe tekst som er hentet fra/skrevet av Wikipedia? Det vil faktisk være ulovlig å ta tekst (også bearbeidet tekst) fra Wikipedia og legge det inn i SNL med en «lukket» lisens. Akkurat like ulovlig som det er å ta tekst fra SNL og legge ut på Wikipedia. Hvordan har SNL tenkt å kontrollere / sikre seg dette?

Og om SNL skulle legge ut artikler med ulik lisensiering, at f.eks. en artikkel legges ut som CC fordi teksten er hentet fra Wikipedia, så må de gjøre det tydelig – slik at teksten kan legges over i Wikipedia igjen… om den er god nok ;-)

Comments Ingen kommentarer »

Odin skriv under om SNLs omlegging av leksikonmodellen sin, og nemner i eitt av punkta NDLA. Eg har svært lite å føye til alt som er skrive i bloggosfæren om dette, anna enn at eg òg samstemmer i den litt skeptiske gleda ein kan fornemme. 

Eg må likevel innrøme at eg i mi tid som NDLA-medarbeidar (frå byrjinga av prosjektet og i alle høve ut året) dels har blitt småparanoid, dels har blitt (lettare) konspirasjonsteoretisk. Idegrunnlaget til NDLA, frie og opne ressursar, stimulering av dele- og produksjonstanken, som har vore eit mål (om ikkje realistisk gjennomførbart på alle punkt, dersom ein no skal vere pragmatisk) frå byrjinga, synest eg er eit svært godt selling-point for NDLA-prosjektet: Dette er ikkje ei gratis lærebok! Dette er ein arena med tekstar og verktøy som offentlegheita eig, ikkje ein redaksjon, organisasjon eller utval forfattarar, og du kan ta dette med deg inn i LMSas, ut på weben, eller ned på papir. Etter kvart kan du òg nytte NDLA som arena for deling, samarbeid og publikasjon. Å kalle dette ei lærebok er som å kalle bob-bana på Lillehammer ein tyttebærrensar. Det kan nok brukast slik òg, men det er svært nærsynt.

Lisensieringsmodellar som er tilpassa ei anna medieverkelegheit enn den Gutenberg sparka igang er eit viktig verkemiddel for å halde desse ideane oppe. Sidan Aschehoug og Gyldendal ikkje seier noe om dette, anna enn at programvaren dei vil bruke vil bli open source, reknar eg med at det vil bli like lukka som det er no. Altså: A&G eig alt, du kan ikkje ta det med deg utan vidare ned på print, ut på Google Earth, eller inn i ein LMS. 

Vi står då igjen med eit heilt vanleg leksikon, gratis som følgje av reklamefinansiering, men med eit utvida arsenal av forfattarar administrert av fagansvarlege som igjen rapporterer til A&G-redaksjonen. Det er ikkje opning for å leggje inn artiklar, slik eg les dette, men «anledning til å bidra med nytt innhold – artikler om nye temaer, omskriving av eksisterende artikler, bilder m.m..» Desse artiklane, omskrivingane, bildene, er forslag som skal  «kanaliseres til fagansvarlige for vedkommende fag for evaluering for opptak i den kvalitetssikrede kjernen.» Det luktar litt «vi-må-finne-noe-sprekt-å-gjøre-ish-for-denne-utviklingen-på-nettet-har-kommet-så-langt-derre.» Slik tenkte Metallica òg, då dei oppretta ein YouTube-kanal for å heidre fansen sin, etter at dei hadde tråkka på dei ved å dra 300 000 smågutar for retten for å ha lasta ned Metallica-låtar frå Napster. Du kan jo klikke deg inn på MetallicaTV og lese nokre av kommentarane for å sjå koss dette er mottatt. 

Vel. Eg er open for at her ligg føringar som er lang meir radikale enn dette, for dette er ikkje mykje til endring. Interessant er det, og her kjem poenget om konspirasjonsteoriar og paranoia inn, at det blir opna for eit «lag 1,» ei redaksjonell godkjent kjerne, og eit «lag 2» med brukargenerert innhald, der ein kan flytte artiklar frå lag 2 opp til lag 1. Dette er ein av dei berande ideane i NDLA (lag 2 blir forsøksvis implementert i haust), og eitt element i det å lage læremiddel som forlaga har brukt nokre år på å le seg skakke av til no.

Brukargenerert innhald, deling, wikiar, har altså med eitt handgrep gått frå å vere tøv og fjas i forlagsverda til å bli ein forretningsmodell. 

Ein siste bekymring: Eg fryktar, når no SNL går ut og hankar inn «creative commies» som Eirik Newth, at dei ressursane som før gjekk til å oppdatere og forsvare Wikipedia no blir kanalisert inn i eit forlagsinitiativ som blir lukka i andre lisensar enn (opne variantar av) Creative Commons. Odin er inne på det same under: Kva om ein nyttar offentlege midlar til å forbetre no/nn.wikipedia.org framføre å sponse forlaga i det som ser ut som det same, gamle toget mot opne kunnskapsressursar? Eg er sikker på at ein ABM-million i året kan gjere gode ting for Wikipedia, både på nynorsk og bokmål.  

Og kommentaren om at det no er opna for nynorske artiklar gidd eg ikkje eingong kommentere.

Comments 2 Kommentarer »

Store norske leksikon (SNL) prøver nå å ta en «wikipedia» med slagordet «åpen og gratis for alle». I en pressemelding på de nye nettsidene sine informerer de omverden om hva som skal skje i januar 2009. Meg bekjenter det Bokklubben og Kunnskapsforlaget som står bak dette, og de planlegger at det skal finansieres gjennom reklame og en million kroner årlig fra ABM-ordningen (biblioteksmidlene). For tiden arbeider de med å knytte til seg fagansvarlige på de ulike emnefeltene som skal kvalitetssikre det som kommer inn gjennom brukerartikler.

I pressemeldingen skryter de veldig av at alt som blir så åpent:

  • Åpen redigering direkte i nettleseren – men det er forbeholdt de fagansvarlige.
  • Åpent for brukerartikler – det vel det som er nivå/lag 2 i NDLA. Disse artiklene kan kanaliseres til den kvalitetssikrede biten gjennom fagansvarlige.
  • Åpen programvare – SNL skal drives av nyutviklet programvare som skal være fri.
  • Åpning for artikler på nynorsk! Whoa….
  • …og til slutt: åpning av tjenesten for brukere! Gratis!

Men… de sier ingenting om den viktigste måten et leksikon kan åpne seg opp, det som har gjort Wikipedia til det leksikonet det er. Er teksten i SNL lagt ut med en åpen/fri lisens, f.eks. Creative Commons? Jeg regner med at den ikke er det, fordi 1) de skriver ingenting om det og 2) de lever ikke lenge av reklameinntektene om teksten er CC – da havner teksten raskt på den norske Wikipedia og Wikipedia generelt har et enormt forsprang på SNL.

Hvorfor ikke bruke denne millionen fra ABM-ordningen til å gjøre den norske delen av Wikipedia bedre?

Comments Ingen kommentarer »

Utdanningsforbundet har sendt ut en e-post til medlemmene sine der de advarer mot NDLA (AON har du en lenke til eposten?). Jeg skal ikke ta for meg alt de skriver i e-posten – til det kjenner jeg ikke NDLA godt nok og NDLA-folket kan selv snakke godt for seg (som de viser både her og her).

Det punktet jeg vil henge meg litt opp i er følgende:

Når fylkeskommunene både har ansvar for at elever får gratis læremidler og samtidig virker som læremiddelprodusenter, vil det lett kunne utvikle seg monopollignende tilstander i læremiddelmarkedet. Det vil kunne virke uheldig på tilgangen til varierte læremidler som bygger på ulike pedagogiske idéer og læringssyn.

Javel… la oss se på hva har skjedd med operativsystemen vi bruker i datamaskinene våre. Vi har Microsofts Windows, Apples OSX og GNU/Linux som de mest vanlige OS på datamaskiner. Er det monopollignende tilstander i OS-markede? Ja, det lukkede, helkommersielle Windows dominerer nesten hele markedet. Apples OSX har en viss markedsdel og GNU/Linux har etter hvert fått plass på den personlige datamaskinen, men Windows råder grunnen. Apples OSX er «kommersielt», men bygger på en Unix-utgave (BSD) og de har åpnet kildekoden til selve kjernen i systemet. GNU/Linux er basert den delingskulturen som UF sier kommer til å gi monopollignende tilstander i lærebokmarkedet. Og så, hvilket modell har gitt tilgang til flest varianter av operativsystemet som er tilpasset ulike behovene man kunne finne på å ønske? Jo, det er uten tvil GNU/Linux – det er et hav av ulike linux-derivater som legger vekt på hva det skal være, alt etter hva den som laget derivatet hadde behov for. Dette er mulig fordi GNU/linux er fritt (og basert på en delingskultur). Den mest monopollistiske er Microsoft, som i disse dager jobber aktivt for å få alle Windowsbrukere fra WinXP over til Vista. De vil helst ikke gi brukerne sine dette valget!

Jeg mener dette er en fullgod sammenligning. Utdanningsforbundet ønsker i praksis en monokultur i sitt syn på hvordan læremidler blir til, hvordan de distribueres og hvordan de utvikler seg. En delingskultur, som det er fullt mulig å tjene gode penger på (bare ta en prat med RedHat og Novell), vil gi mange flere og mer varierte læremidler enn den kommersielle/lukkede «forlagsmodellen» som eksisterer i dag. Det er den åpne delingskulturen som kan gi oss varierte læremidler som bygger på ulike pedagogisk idéer og læringssyn. I dag har jeg, med de reglene som gjelder for forlagsproduserte læremidler, ikke lov til å ta noe fra en bok, noe fra en annen bok og skrive det litt om til det som passer meg og klassen min. Dagens regler hindrer utvikling!

Så hvis Utdanningsforbundet skulle være tro mot hva de sier i denne e-posten må de også være mot at noen støtter (og bruker) OpenOffice, Wikipedia, Linux, GeoGebra, Audacity, The Gimp, Inkscape osv… Hvordan tror de at disse programmene dukket opp? og på norsk? «Åpne kontorprogram på norsk» (med Akershus og Møre og Romsdal fylkeskommune) betaler noen for å holde OpenOffice oversatt til bokmål og nynorsk. Jeg er glad for at de har valgt å frigi dette materialet til allmennheten. Disse fylkeskommunenes delingskultur skaper muligheten for skolene i Norge til å kunne velge mellom Microsoft Office og OpenOffice.

Jeg ønsker at Utdanningsforbundet støtter slike arbeid, istedet for å motarbeide det. Utdanningsforbundet, som er glad i å være solidarisk med lærere i fattige land, burde støtte opp under alt som kunne øke delingskulturen av læremidler og læringsressurser i skolen. Det er slik det kan komme alle til nytte!

Comments Ingen kommentarer »

I fjor tok de ned Avinor i to dager – i år tok de ned seg selv. Hvem tenker jeg på? Jo, Utdanningsdirektoratet, eller www.udir.no. Det har allerde vært i media, men det er verdt en liten kommentar her også.

Utdanningsdirektoratet vet tydeligvis ikke hva de holder på med når de skal bruke «Internett» i forbindelse med eksamen i grunnskolen. I fjor skulle elevene i matematikk sjekke ut parkeringsmulighetene på alle flyplassene rundt omkring i Norge. Overraskelsen hos Avinor var nok stor når plutselig 1/3 av alle 10. klassene gikk inn på hjemmesidene til de ulike flyplassene for å sjekke parkeringsmuligheter (og priser). Alt ble drevet av samme web-tjener – og alt gikk ned så det sang! Plutselig var det ingen elever som fikk sjekket parkeingsmulighetene (og prisene), men ingen fikk heller sjekket avgangs- og ankomsttider på flyplassene i landet. Avinor ble, med rette, ordentlig sure på Utdanningsdirektoratet. Utdanningsdirektoratet lærte noe der…

…trodde jeg. Hva skjedde i år? Jo, de lot seg selv drukne i trafikk. De hadde lagt alle hovedsidene elevene skulle bruke på sin egen tjener (eksamen.udir.no), slik at de ikke skulle gjøre samme tabben som i fjor. De tok ikke høyde for hvilken trafikk som ble generert og har i praksis lammet seg selv. De skyldte på en liten flash-film de hadde liggende, men den betydde lite i den store helheten. Elever (og lærere) hos oss brukte ca. 3 minutter på å få opp en side. Vi kunne laste ned noen pdf-er, men disse var uten bilder (og lyd ;-) – og de var ikke så lette å laste ned når du først måtte vente 3 minutter på å få siden opp, så 3 minutter på å få den lille pdf-filen overført til PCen. På toppen av det hele lot de sidene ligge som https – altså krypterte sider. Da hjelper det lite for Utdanningsdirektoratet at vi faktisk kjører en proxy på skolen, fordi det er ikke mulig å mellomlagre https-sider – de må hentes direkte fra webtjeneren. De hadde spart seg mange problemer om de hadde åpnet sidene for åpen http-trafikk når materialet ble offentliggjort for elevene.

www.udir.no var også nede i dag. Det var ikke mulig å komme inn på hjemmesiden deres eller noen av undersystemene (som PAS og eksamen.udir.no). Det kan ikke være slik når vi skal gjennomføre en eksamen. Systemet være oppe på eksamensdagen.

Jeg skjønner ikke hva de tenker på. De er ikke så vanskelig å beregne hvor mange elever som kommer til å koble seg opp mot webtjeneren(e) – og det er mulig å skalere de fleste web-løsninger.

Det hjelper heller ikke når alle IKT-negative lærere får bekreftet så godt som alle argumentene sine mot bruk av IKT i skolen. Neste år vil udir legge alt over på internett – ingenting på papir: forberedelse, oppgaver og antakeligvis også innlevering. Det er nødt til å gå galt…

Comments 5 Kommentarer »

New Media Consortium har publisert The Horizon Report, der dei mellom anna peikar på seks "key emerging technologies" som sannsynlegvis vil "enter mainstream use in learning-focused organizations within three adoption horizons over the next one to five years." Vidare drøftar dei utfordringar og trendar i den same perioden.

Teknologiane kjenner vi igjen, og i fleire tilfelle er desse i bruk i skulane, i større eller mindre grad, og med varierande grad av gjennomreflekterte overbygningar:

(i) Grassroots Video — som til dømes filmar filma med heimeutstyr eller mobiltelefonar lasta opp på delesider (Youtube, JumpCut, etc).

(ii)  Collaboration Webs — deling av dokument online, online møteverksemd, etc.

(iii) Mobile Broadband

(iv) Data Mashups — tekstar som er bygd opp av data frå ulike kjelder, til dømes bilde frå Flickr som opptrer i samanhengar utanfor nettsidene til Flickr, embedding av YouTube-videoar (og andre element, som spel, quizzar, etc) i MySpace og Facebook, etc. Google Earth/Maps, Piczo etc. er og døme på mashup-venlege program/websider.

(v) Collective Intelligence — kunnskap og forståing som følgjer av grupper av folk; tagging av ressursar online, Wikipedia, etc.

(vi) Social Operating Systems — ei nettverktstenking der ein organiserer nettverket rundt folk heller enn innhald.  

Rapporten er interessant lesnad, og det blir peika på ei rekkje kritiske utfordringar for akademia framover. Desse utfordringane burde ha vore oppe til debatt her til lands, når vi no likevel drøftar kva kunnskapar er, i kjølvatnet av Pisa-krisa. 

 

Comments Ingen kommentarer »

Jeff Atwood har, i sin populære blogg Coding Horror, et fint innlegg om retten til å kunne ha et privat liv.

Comments Ingen kommentarer »

Regjeringen har sluppet en pressemelding som informerer om at de har vedtatt at all informasjon på statlige nettsider skal være tilgjengelig i de åpne dokumentformatene HTML, PDF eller ODF innen 1. januar 2009. De skal jobbe videre med forskriftene slik at dette også vil gjelde for kommunal sektor. Innen 2014 skal alle offentlige dokumenter på nett være gjort om til disse åpne dokumentformatene.

De viser også til at dette arbeidet skal fortsette over i åpne standarder i intern saksbehandling i offentlig sektor.

YES! 

Comments Ingen kommentarer »

Det er litt deilig å lese innlegg der staten faktisk går inn for å bruke åpne dokumentformat. IT-minister Heidi Grande Røys foreslått nye regler som til en viss grad vil avslutte Microsofts Word-monopol i det offentlige:

Standardiseringsrådet foreslår blant annet PDF og ODF som obligatoriske dokumentsstandarder i offentlige virksomheter. Blir forslaget vedtatt av regjeringa hindrer det ikke offentlige etater og virksomheter i å anvende andre formater i sin kommunikasjon med brukerne. Informasjon kan også publiseres på andre formater i tillegg, for eksempel DOC-formatet til Microsoft, så lenge de også er publisert på en av de obligatoriske formatene ODF eller PDF.

Det er også Standardiseringsrådets forslag står det også at det offentlige skal gå over til åpne format når de arkiverer dokumenter – altså at den interne saksbehandlingen også skal være ODF (som arbeidsdokument eller sluttprodukt) eller PDF (som sluttprodukt). De sier ikke at alle må bruke OpenOffice, men at filformatet må være åpent – og at det finnes muligheter er MS Office for å lagre og åpne ODF-dokumenter.

Standardiseringsrådets forslag og høringspapirer er selvfølgelig lagt ut på den "rette" måten.

For oss litt mer teknisk interesserte: De foreslår også at det offentlige skal over til UTF-8!

Standardiseringsrådet har foreslått at offentlige nettsteder, samt øvrig informasjonsutveksling med offentlige virksomheter, skal følge standarden ISO/IEC 10646, representert ved UTF-8.

De vil også at dette skal gjelde intern i alle offentlige IT-systemer! De skjønner også at dette medfører store tekniske omlegginger, men at det er en jobb som gjøres.

Innføring er foreslått til 1. januar 2009 – så det er bare å begynne jobben mot kommuneledelser (som jeg vet du Espen er i gang med :-) og skoler. Jeg gleder meg til at jeg kan sende et .odt-dokument til noen i kommunen og vite at det er denne filen de får som vedlegg… og bare den.

Comments Ingen kommentarer »

Og mens vi er inne på IKT og sikkerhet – sjekk ut denne artikkelen fra www.codinghorror.com for noen gode ideer til hvordan du skal ta knekken på It's learning :-)

Comments 4 Kommentarer »