Gå til innhold

Den frie kafeen


Anbefalte innlegg

Videoannonse
Annonse

Når alt kommer til alt; hvordan tjener egentlig Canonical på Ubuntu (og andre på andre distribusjoner)?

 

Jeg ser mye lurt med open source på mange punkter, men i tilfeller som Canonical og Ubuntu så har jeg vanskelig for å se hvordan de kan begrunne og drive dette som noe særlig annet enn veldedighet, med unntak av supporttjenester. Men det må jo funke på en eller annen måte :)

Lenke til kommentar

Så lenge de fortsatt lager pakker, og de er enkle og legge til ser jeg hverken de store fordelene eller ulempene med det, rent praktisk. Men slik Fedore gjør det (eller i hvert fall gjorde det), er det jo helt håpløst. Å spille av DVD-er eller mp3-filer var håpløst, og ulike ting fungerte ikke fordi visse pakker/programmer var kompilert uten støtte for ulike patenterte ting. Fullstendi håpløst. Nå skal det vel legges til at jeg ikke har testet det siden 2008/2009.

 

Hvordan gjør Debian det da med pakker som kan være både fire og ufrie? Eks. ffmpeg som kan kompilere både med og uten støtte for ulike formater, eller andre programmer som kan kompileres med binærblobber eller uten. To versjoner i to ulik repo med ulike pakkenavn? kan jo bli morsomt med tanke på deps og slikt.

Lenke til kommentar

Så lenge de fortsatt lager pakker, og de er enkle og legge til ser jeg hverken de store fordelene eller ulempene med det, rent praktisk. Men slik Fedore gjør det (eller i hvert fall gjorde det), er det jo helt håpløst. Å spille av DVD-er eller mp3-filer var håpløst, og ulike ting fungerte ikke fordi visse pakker/programmer var kompilert uten støtte for ulike patenterte ting. Fullstendi håpløst. Nå skal det vel legges til at jeg ikke har testet det siden 2008/2009.

 

Hvordan gjør Debian det da med pakker som kan være både fire og ufrie? Eks. ffmpeg som kan kompilere både med og uten støtte for ulike formater, eller andre programmer som kan kompileres med binærblobber eller uten. To versjoner i to ulik repo med ulike pakkenavn? kan jo bli morsomt med tanke på deps og slikt.

 

Syns da Fedora er ganske så ålreit. Alt man trenger å gjøre er å legge til rpmfusion-repoet.

Lenke til kommentar

NgZ, pakkene kommer i to verjoner. Eksempelvis unrar og unrar-nonfree.

Oki, da har de vel noe fornuftig måte å ordne dependencies på og, så man slipper å legge inn free om man allerede har non-free. Hvorfor gjør de dette egentlig? Patenttroll-redsel?

 

Syns da Fedora er ganske så ålreit. Alt man trenger å gjøre er å legge til rpmfusion-repoet.

Da har det sikkert blitt bedre, jeg endte op med et evig dependency hell da jeg forsøkte.
Lenke til kommentar

Har et mdadm RAID5-oppsett med seks disker.

 

En av diskene hoppet ut for en ukes tid siden. I går kveld rebootet jeg serveren, og la disken til i raidet igjen. Begynte gjenoppbygging på vanlig måte. Midt undergjenoppbyggingen hoppet disk nummer to ut av raidet. Altså U_UUU_. Raidet ble satt til inaktivt av mdadm.

 

Hvor fucked er jeg egentlig nå? Noen som har noen artikler/tips til meg angående hva jeg kan gjøre videre?

Lenke til kommentar

Men slik Fedore gjør det (eller i hvert fall gjorde det), er det jo helt håpløst. Å spille av DVD-er eller mp3-filer var håpløst, og ulike ting fungerte ikke fordi visse pakker/programmer var kompilert uten støtte for ulike patenterte ting. Fullstendi håpløst. Nå skal det vel legges til at jeg ikke har testet det siden 2008/2009.

Har kjørt Fedora siden FC5 (2006) og har aldri hatt problemer med mp3 eller dvd. Men man var/er nødt til å legge til en tredjepart repro som Livna eller Freshrpms, begge ble senere slått sammen til rpmfusion, for å få tilgang til ufrie pakker.

Men har hatt langt flere problemer med å få ymse programmer til å fungere under Fedora enn Ubuntu. Mener å huske at dette var noen media sentere og boinc. Boinc ligger i Fedora repro, men sist gang jeg testet frøs boinc manager i advanced view. Selv om jeg foretrekker Fedora så er det fortsatt en del humper å jevne ut ;)

Lenke til kommentar

Har et mdadm RAID5-oppsett med seks disker.

 

En av diskene hoppet ut for en ukes tid siden. I går kveld rebootet jeg serveren, og la disken til i raidet igjen. Begynte gjenoppbygging på vanlig måte. Midt undergjenoppbyggingen hoppet disk nummer to ut av raidet. Altså U_UUU_. Raidet ble satt til inaktivt av mdadm.

 

Hvor fucked er jeg egentlig nå? Noen som har noen artikler/tips til meg angående hva jeg kan gjøre videre?

Jeg ville ha lista ut "magic nr" på alle diskene og så tvingt igang raidet med de 5 diskene som er "minst" ifra hverandre.

 

mdadm --examine /dev/sdc2

 

Etter at du har tvingt igang raidet så er det bare å begynne å kopiere over på en annen disk.

  • Liker 1
Lenke til kommentar

Har et mdadm RAID5-oppsett med seks disker.

 

En av diskene hoppet ut for en ukes tid siden. I går kveld rebootet jeg serveren, og la disken til i raidet igjen. Begynte gjenoppbygging på vanlig måte. Midt undergjenoppbyggingen hoppet disk nummer to ut av raidet. Altså U_UUU_. Raidet ble satt til inaktivt av mdadm.

 

Hvor fucked er jeg egentlig nå? Noen som har noen artikler/tips til meg angående hva jeg kan gjøre videre?

Jeg ville ha lista ut "magic nr" på alle diskene og så tvingt igang raidet med de 5 diskene som er "minst" ifra hverandre.

 

mdadm --examine /dev/sdc2

 

Etter at du har tvingt igang raidet så er det bare å begynne å kopiere over på en annen disk.

 

 

# clvn@enigma: sudo fdisk -l | grep raid

/dev/sdb1 2048 2930277167 1465137560 fd Linux raid autodetect

/dev/sdd1 63 2930272064 1465136001 fd Linux raid autodetect

/dev/sdg1 63 2930272064 1465136001 fd Linux raid autodetect

/dev/sde1 63 2930272064 1465136001 fd Linux raid autodetect

/dev/sdf1 63 2930272064 1465136001 fd Linux raid autodetect

/dev/sdc1 63 2930272064 1465136001 fd Linux raid autodetect

 

# clvn@enigma: for i in {b,c,d,e,f,g}; do sudo mdadm --examine /dev/sd"$i"1; done

/dev/sdb1:

Magic : a92b4efc

Version : 0.90.00

UUID : e88a3b09:b4cd0d6e:dc342cdc:19e2ab4a

Creation Time : Fri Oct 2 03:43:23 2009

Raid Level : raid5

Used Dev Size : 1465135936 (1397.26 GiB 1500.30 GB)

Array Size : 7325679680 (6986.31 GiB 7501.50 GB)

Raid Devices : 6

Total Devices : 6

Preferred Minor : 0

 

Update Time : Mon Feb 7 07:41:41 2011

State : clean

Active Devices : 4

Working Devices : 5

Failed Devices : 2

Spare Devices : 1

Checksum : 2c380d15 - correct

Events : 1719403

 

Layout : left-symmetric

Chunk Size : 64K

 

Number Major Minor RaidDevice State

this 0 8 17 0 active sync /dev/sdb1

 

0 0 8 17 0 active sync /dev/sdb1

1 1 0 0 1 faulty removed

2 2 8 97 2 active sync /dev/sdg1

3 3 8 49 3 active sync /dev/sdd1

4 4 0 0 4 faulty removed

5 5 8 33 5 active sync /dev/sdc1

6 6 8 81 6 spare /dev/sdf1

/dev/sdc1:

Magic : a92b4efc

Version : 0.90.00

UUID : e88a3b09:b4cd0d6e:dc342cdc:19e2ab4a

Creation Time : Fri Oct 2 03:43:23 2009

Raid Level : raid5

Used Dev Size : 1465135936 (1397.26 GiB 1500.30 GB)

Array Size : 7325679680 (6986.31 GiB 7501.50 GB)

Raid Devices : 6

Total Devices : 6

Preferred Minor : 0

 

Update Time : Mon Feb 7 07:41:41 2011

State : clean

Active Devices : 4

Working Devices : 5

Failed Devices : 2

Spare Devices : 1

Checksum : 2c380d2f - correct

Events : 1719403

 

Layout : left-symmetric

Chunk Size : 64K

 

Number Major Minor RaidDevice State

this 5 8 33 5 active sync /dev/sdc1

 

0 0 8 17 0 active sync /dev/sdb1

1 1 0 0 1 faulty removed

2 2 8 97 2 active sync /dev/sdg1

3 3 8 49 3 active sync /dev/sdd1

4 4 0 0 4 faulty removed

5 5 8 33 5 active sync /dev/sdc1

6 6 8 81 6 spare /dev/sdf1

/dev/sdd1:

Magic : a92b4efc

Version : 0.90.00

UUID : e88a3b09:b4cd0d6e:dc342cdc:19e2ab4a

Creation Time : Fri Oct 2 03:43:23 2009

Raid Level : raid5

Used Dev Size : 1465135936 (1397.26 GiB 1500.30 GB)

Array Size : 7325679680 (6986.31 GiB 7501.50 GB)

Raid Devices : 6

Total Devices : 6

Preferred Minor : 0

 

Update Time : Mon Feb 7 07:41:41 2011

State : clean

Active Devices : 4

Working Devices : 5

Failed Devices : 2

Spare Devices : 1

Checksum : 2c380d3b - correct

Events : 1719403

 

Layout : left-symmetric

Chunk Size : 64K

 

Number Major Minor RaidDevice State

this 3 8 49 3 active sync /dev/sdd1

 

0 0 8 17 0 active sync /dev/sdb1

1 1 0 0 1 faulty removed

2 2 8 97 2 active sync /dev/sdg1

3 3 8 49 3 active sync /dev/sdd1

4 4 0 0 4 faulty removed

5 5 8 33 5 active sync /dev/sdc1

6 6 8 81 6 spare /dev/sdf1

/dev/sde1:

Magic : a92b4efc

Version : 0.90.00

UUID : e88a3b09:b4cd0d6e:dc342cdc:19e2ab4a

Creation Time : Fri Oct 2 03:43:23 2009

Raid Level : raid5

Used Dev Size : 1465135936 (1397.26 GiB 1500.30 GB)

Array Size : 7325679680 (6986.31 GiB 7501.50 GB)

Raid Devices : 6

Total Devices : 6

Preferred Minor : 0

 

Update Time : Mon Feb 7 07:40:56 2011

State : active

Active Devices : 5

Working Devices : 6

Failed Devices : 1

Spare Devices : 1

Checksum : 2c1dd087 - correct

Events : 1719375

 

Layout : left-symmetric

Chunk Size : 64K

 

Number Major Minor RaidDevice State

this 4 8 65 4 active sync /dev/sde1

 

0 0 8 17 0 active sync /dev/sdb1

1 1 0 0 1 faulty removed

2 2 8 97 2 active sync /dev/sdg1

3 3 8 49 3 active sync /dev/sdd1

4 4 8 65 4 active sync /dev/sde1

5 5 8 33 5 active sync /dev/sdc1

6 6 8 81 6 spare /dev/sdf1

/dev/sdf1:

Magic : a92b4efc

Version : 0.90.00

UUID : e88a3b09:b4cd0d6e:dc342cdc:19e2ab4a

Creation Time : Fri Oct 2 03:43:23 2009

Raid Level : raid5

Used Dev Size : 1465135936 (1397.26 GiB 1500.30 GB)

Array Size : 7325679680 (6986.31 GiB 7501.50 GB)

Raid Devices : 6

Total Devices : 6

Preferred Minor : 0

 

Update Time : Mon Feb 7 07:41:41 2011

State : clean

Active Devices : 4

Working Devices : 5

Failed Devices : 2

Spare Devices : 1

Checksum : 2c380d5b - correct

Events : 1719403

 

Layout : left-symmetric

Chunk Size : 64K

 

Number Major Minor RaidDevice State

this 6 8 81 6 spare /dev/sdf1

 

0 0 8 17 0 active sync /dev/sdb1

1 1 0 0 1 faulty removed

2 2 8 97 2 active sync /dev/sdg1

3 3 8 49 3 active sync /dev/sdd1

4 4 0 0 4 faulty removed

5 5 8 33 5 active sync /dev/sdc1

6 6 8 81 6 spare /dev/sdf1

/dev/sdg1:

Magic : a92b4efc

Version : 0.90.00

UUID : e88a3b09:b4cd0d6e:dc342cdc:19e2ab4a

Creation Time : Fri Oct 2 03:43:23 2009

Raid Level : raid5

Used Dev Size : 1465135936 (1397.26 GiB 1500.30 GB)

Array Size : 7325679680 (6986.31 GiB 7501.50 GB)

Raid Devices : 6

Total Devices : 6

Preferred Minor : 0

 

Update Time : Mon Feb 7 07:41:41 2011

State : clean

Active Devices : 4

Working Devices : 5

Failed Devices : 2

Spare Devices : 1

Checksum : 2c380d69 - correct

Events : 1719403

 

Layout : left-symmetric

Chunk Size : 64K

 

Number Major Minor RaidDevice State

this 2 8 97 2 active sync /dev/sdg1

 

0 0 8 17 0 active sync /dev/sdb1

1 1 0 0 1 faulty removed

2 2 8 97 2 active sync /dev/sdg1

3 3 8 49 3 active sync /dev/sdd1

4 4 0 0 4 faulty removed

5 5 8 33 5 active sync /dev/sdc1

6 6 8 81 6 spare /dev/sdf1

 

# clvn@enigma: cat /proc/mdstat

Personalities :

md0 : inactive sdc1[5](S) sdf1[6](S) sdd1[3](S) sdb1[0](S) sde1[4](S) sdg1[2](S)

8790817152 blocks

 

unused devices: <none>

 

# clvn@enigma: cat /etc/mdadm.conf

ARRAY /dev/md0 level=raid5 num-devices=6 metadata=0.90 UUID=e88a3b09:b4cd0d6e:dc342cdc:19e2ab4a

 

 

 

Hvordan ser jeg hvilke disker som er minst fra hverandre? Her har vi en med noe av de samme problemene som meg. Og hvilken kommando brukes til å tvinge det opp etterpå, mdadm --create eller mdadm --assemble? Takker for hjelpa :)

Lenke til kommentar

clvn: for meg ser det ut som sde datt ut sist, så det er nok den jeg ville begynnt med.

 

madadm --assemble --force burde gjøre susen, er du uheldig vil disken feile igjen. Det du eventuelt kan prøve er å ta dd fra sde over på en ny disk.

 

0 0 8 17 0 active sync /dev/sdb1

1 1 0 0 1 faulty removed

2 2 8 97 2 active sync /dev/sdg1

3 3 8 49 3 active sync /dev/sdd1

4 4 0 0 4 faulty removed

5 5 8 33 5 active sync /dev/sdc1

6 6 8 81 6 spare /dev/sdf1

 

Men forstår ikke helt at du har en "spare" og 2 "faulty" det burde vel tilsi at du skulle hatt en /dev/sdh inni der?

  • Liker 1
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...