onsdag den 5. februar 2014

Privatlivet på internettet

Idag har vi beskæftiget os med privatlivet på internettet. Det har givet mig et godt indblik i, hvor lidt vi egentlig kan kontrollere som brugere. Det er næsten umuligt at få noget ned fra internettet, når først det har været oppe. Alt hvad vi foretager os på internettet bliver optaget og vores internetudbyder er i stand til, at se præcis hvad vi har været inde på. Vi har også lært omkring copyright, hvor det handlede om billedtagning af andre personer, og hvilke rettigheder man har som billedtager og billedaktør. Cookies er en stor del af privatlivet på internettet og disse kan bruges godsindet, såvel som ondsindet. Cookies bruges til at gemme data omkring en bruger (f.eks. login info), så de er logget ind, når de kommer tilbage til siden senere. Vi brugte privacytesten på Maxa tools til at give et billede af, hvor megen information en tilfældig side kan høste fra en bruger.
 Vi kiggede også på trackers og hvordan vores besøg og adfærd på hjemmesider bliver registreret på andre sider.

Segmenteringsgrupper

Vi snakkede en del om, hvordan google er opbygget omkring reklamer og annoncer. En annoncør kan vælge et demografisk område, som annoncøren gerne vil ramme med en annonce. Google optager megen data omkring vores søgehistorik, hvorefter vi bliver inddelt i kategorier. Dette kan virke etisk ukorrekt, da vores privatliv er i Googles hænder, til fordel for annoncørene. Det er en af årsagerne til, at Google er blevet så stort. Man kan også se det fra en lys side, hvorpå det er en win win situation. Vi får statistisk set bedre søgeresultater, da vi allerede har et sæt præferencer at søgemaskinen kan forholde sig til. At vi bliver inddelt i kategorier gør, at Googles søgeresultater kan ramme meget specifikt. Annoncørerne opnår således også en win situation, da de let kan ramme deres ønskede segment.


tirsdag den 4. februar 2014

Case opgave - Sorø Avis

Opgaven var langt bedre end jeg havde forventet, da den havde rigtig god synergi med vores tidligere opgaver fra ugen. Vi havde lært om hardware, netværk og jeg havde skrevet om OSI-modellen. Dette kom mig til gode under case opgaven. Tiden til denne opgave var knap, da jeg havde valgt at vælge de enkelte komponenter selv. Dette gjorde at det tog meget længere tid end forventet, men jeg fik dog lavet en langt bedre opgave. Vi arbejdede med Excel og Word under denne opgave. Jeg lærte omkring skabeloner i word, men jeg fik ingen ekstra viden udover det, da jeg allerede er fortrolig i disse programmer.

mandag den 3. februar 2014

OSI modellen

OSI modellen er en model for et lagsystem for protokol-funktionerne. Systemet er inddelt i 7 lag. Hvert lag bygger videre på det underliggende lag. Det underliggende lag tilbyder funktioner til det ovenliggende lag. En sådan system kaldes for protokolstak eller bare stak. Protokolstakke ses mange steder i computerverdenen f.eks. i software, hardware eller begge. Normalt er en protokolstak opbygget således, at de laveste lag servicerer hardware og de øverste servicerer software. OSI-modellens 7 lag ses nedenunder:


OSI-modellens 7 lag med forklaring

7.  Applikationslaget

Dette er brugergrænsefladen, som er det øverste lag i OSI-modellen. Dette lag sørger for, at brugeren kan se information over netværket via. f.eks. en browser. Kendte applikationslag er Telnet, File Transfer Protocol(FTP), Simple Mail Transfer Protocol (STMP) og Hypertext Transfer Protocol (HTTP/HTTPS)

6.  Præsentationslaget 

Præsentationslaget kan forstås som et lag imellem de programmer vi arbejder med til dagligdag, og en kendt standard grænseflade f.eks. XML. Brugeren kan udføre den opgave, som et hvis program er skabt til, hvorefter det kan oversættes til et generelt sprog, som kan sendes universalt på internettet.

5.  Sessionlaget

Dette lag er ikke særligt populært og bliver kun brugt få steder på internettet. Sessionlaget er en del af TCP og står til ansvar for session checkpointing og recovery.

4.  Transportlaget

Det mest kendte transportlag er (TCP), som fungerer som en form for validering, for at afbelaste ovenstående lag for fejl. Transportlaget validerer på indpakning/udpakning, flow-control og fejlkontrollen. Hvis der opstår en fejl og en pakke ikke er nået destination, kan dette lag fremprovokere gensendelse af pakken.

3.  Netværkslaget

Dette lag sørger for at man kan sende en datablok af varierende størrelse fra kilden til modtageren. Transportlaget er meget afhængig af dette lag. Netværkslaget sørger derfor for, at sendte pakker bliver sendt til den rette modtager (routing). Netværkslaget rapporter om fejl ved levering, hvis der opstår en fejl under forsendelsen. Netværkslaget står som sagt for routing og laget er også ansvarlig for adressering. Et typisk lag 3 protokol kender man som IP-adressen.

2.  Data Link-laget

Data Link-laget kan forstås som en beskyttende hinde imellem netværkslaget og det fysiske lag. Data Link-laget opfanger fejl, som kan opstå i det fysiske lag. Et eksempel på Data Link-laget er f.eks. Ethernet.  Dette lag er styret af netværksbroer og/eller switches.


1.  Det Fysiske lag

Det fysiske lag er alt hvad der vedrører de fysiske elementer, som skal være til stede, for at computeren kan tilkobles et netværk. Dette vedrører stik og spændinger. Hovedfunktionerne for det fysiske lag er:

At oprette elektrisk forbindelse til et overførselsmedie.

Intelligent kommunikation på et netværk contention (først sende data, når der er stille på linjen) og flow-styring (sikrer at en langsom modtager ikke bliver overbelastet af en hurtig afsender).

Oversættelse fra digital data til tilsluttet udstyr. Dette er f.eks. fra digital data til signaler sendt gennem kanaler.









torsdag den 30. januar 2014

Computeren

Computerens historie

Computeren har gennem tiden haft en lang udvikling. Den første computer fyldte et stort rum og vejede 30tons. Idag har vi en langt bedre computer i vores lomme, som vi også kan ringe fra! Den aller første computer hed ENIAC (Electrical Numerical Integrator And Calculator), som blev bygget i 1946. Den bestod af radiorør, modstande, kondensatorer, relæer og manuelt betjente kontakter. Computeren blev udviklet til militære formål under 2. verdenskrig. Den kunne udføre 100.000 operationer pr. sekund, som var utroligt revolutionerende. I 1948 blev en anden computer ved navn Manchester "baby" bygget på Manchester Universitet og interessen for computere steg i stor stil.

Computeren var som sagt bygget med radiorør, til at styre operationer, ved hjælp af en "tændt" eller "slukket" funktion. I 1947 blev transistoren opfundet op Bell laboratoriet i USA, som har haft den største betydning for computerens videreudvikling. Transistorens eksistens betød, at computeren nu kunne laves langt mindre og brugte mindre strøm. Derudover var de tidligere radiorør meget ustabile, da de ofte gik i stykker og dette løste transistoren også.

I 1960 producerede IBM sin første 1401 model, som var baseret på transistorer. IBM producede mange maskiner af denne model og de blev efterhånden brugt mange steder. IBM fremstillede hulkortmaskiner til offentlige myndigheder, større virksomheder og koncerner. Dette gjorde, at IBM tog førerstillingen på markedet for mainframes. Hulkortet blev opfundet til lagring af data. Hulkortet var et kort af karton, hvor der var indprintet huller og en maskine kunne derefter læse kortet og overføre det til instrukser.

Maskinerne var stadig meget store og det krævede et stort rum, for at kunne opretholde en maskine. I 1958 udviklede Texas instruments det første komponent, som kunne indeholde flere transistorer. Dette betød at maskinerne blev betydeligt mindre. IBM benyttede dette til, at gøre deres maskiner stærkere og større, hvor firmaet Digital Equipment Corporation(DEC) udviklede maskiner, so var betydeligt mindre. Selvom den havde størrelse, som på en vaskemaskine, var det set en som mini-computer.

I 1971 blev CPU'en udviklet af IC virksomheden (Integrated Circuits), som var den første mikro-processor. Førhen var computeren centralenhed meget stor og var fordelt ud over flere chips, men IC samlede det til en enkelt chip. Gordon Moore fra Intel opstillede en teori omkring hastigheden af udviklingen af teknologi baseret på antallet af transistorer i en chip. Moores lov lød på, at antallet af transistorer i en chip fordobles hver 18 måned. Denne lov har holdt stik op til omkring 2010.
Opfindelsen med størst betydning for computeren i 1970'erne var IBM, som opfandt RAM (Random Access Memory) og ROM (Read only memory). Dette betød at hulkort ikke længere var nødvendige og man kunne nu udvikle langt mindre og effektive computere.

I 1977 kom Apple på markedet med deres første mikro computer, som kunne vise farvegrafik. Den var dog dyrere end konkurrenternes produkter, men den havde dog også bedre egenskaber. Der blev udviklet ny software til Apple maskinen, som betød at mindre virksomheder fik stor interesse for computeren. Op til 1983 havde der været en eksplosiv udvikling i salget af mikro-computere og IBM følte sig pressede. De etablerede i 1981 en ny enhed, som skulle kunne konkurrere med Apple. Denne enhed er kendt som PC'en(Personal Computer). IBM havde dog ikke overskud til, at udvikle et operativ system selv, så de var åbne for samarbejde med virksomheder, som havde et funktionelt operativ system. IBM valgte at samarbejde med Bill Gates og Paul Allen fra Microsoft, som havde DOS (Disk Operating System) operativ systemet.

Denne aftale var til stor fordel for Microsoft, da de havde aftalt sig til en afgift, hver gang der blev solgt en enhed hos IBM med MS-DOS. PC'en voksede Apple over hovedet med tiden, da IBM havde en langt mere stærkt markedsføring og samarbejde med andre virksomheder, som var interesserede i at sælge deres produkter. Apple havde en lukket holdning til dette og kunne ikke følge med.


Computerens dele

Vores opgave lød på, at skille en computer ad og samle den igen. Undervejs har jeg taget billeder af processen, som du kan se nedenunder.

Billede af en samlet Dell computer
Selve computeren består følgende dele:

  • Motherboard (bundkort)
Bundkortet er computerens mest centrale enhed, som alle komponenterne er tilkoblet, for at få forbindelsen mellem hinanden skabt.

  • HDD(Harddisk drev)
Dette er computerens langtidshukommelse, hvor data kan blive gemt og hentet, når brugeren ønsker det.

  • Diskdrev
  • ROM (Read Only Memory)
På denne del af computeren ligger opstarts proceduren, hvor et styresystem kan ligges ovenpå. Denne opstartsprocedure kaldes også for BIOS, som er det første der kører, når computeren tændes.

  • RAM (Random Access Memory)
Dette er computerens arbejdshukommelse, hvor data som skal tilgås nemt lagres. Læsehastigheden er langt højere på RAM end hvad HDD kan formå. Fordelen ved HDD er dog, at data kan gemmes, når computeren ikke længere er tændt. Dette kan RAM ikke og man kan derfor kalde RAM for computerens korttidshukommelse.

  • CPU (Central Processing Unit)
CPU'en (kontrolenheden) afvikler instruktioner og behandler data, som er lagret på et eksternt komponent.

  • Strømforsyning
  • Grafikkort
Grafikkortet beregner billedet, som fremvises på en tilkoblet skærm. Eftersom kraften fra CPU'en ikke er tilstrækkelig til grafikberegninger, har man valgt at installere en GPU(Graphics Processing Unit) i grafikkortet. 


Harddisken afmonteres

RAM afmonteres (2x)

CPU køleren tages af

CPUen fra Dell computeren

Grafikkortet afmonteres

Motherboard batteriet tages ud

Strømforsyningen afmonteres

Diskdrevet afmonteres

Northbridge afmonteres fra motherboard

Her er computeren skilt fra hinanden
Vi besluttede os for ikke at tage motherboardet ud.

Computerens ydelse

En computers ydelse består af mange aspekter, som man kan afgøre computerens ydelse ud fra. Dette indebærer f.eks. Responstid, Processor hastighed, Tilgængelighed, Størrelse og Vægt, CPU ydelse pr watt, skalerbar, Latens, Båndbredde og Strømforbrug.


Transistorer

Elektrisk komponent, som blev opfundet med formålet, at udskifte radiorøret i datidens store computere. Denne opfindelse gjorde det muligt for, at computeren er blevet til den, som vi kender den idag. Hvis ikke man havde kunne mindske størrelsen på computeren, havde vi formegentlig først fået PC'en langt senere.
Transistoren er en form for kontakt, som fortæller om den er tændt eller slukket med et elektrisk signal.

Von Neumann modellen
Efter Von Neumann's model kan computerens hardware beskrives med fem hovedelementer.

  • Input (tastatur, mus, scanner, digitalt kamera)
Inputtet gør det muligt for omverdenen, at kommunikere med computeren. Inputtet sørger for, at computeren får brugervalgt data, som den kan arbejde med.
  • Output 
Outputtet gør det muligt for omverdenen at se computerens data. Dette kan være i form af f.eks. en skærm eller en printer. 
  • CPU 
  • Arbejdslager (RAM)
  • Faste lagre (diskette, harddisk, optiske drev.
Nutidig model af Von Neumanns computerarkitektur.

Moores lov
Moore's lov har vist sig at være overraskende præcis indenfor udviklingen af teknologi. Moore's lov er demonstreret på understående graf.


Moore's lov er, at antallet af transistorer i en chip fordobles ca. hver 18 måned. Dette skyldes, at teknologien udvikles, så afstanden mellem transistorer i chips formindskes.