<p>Hi there,</p>
<p>When I did this this I didn't use I used parted to partition my drives (I had 2TB drives and I found someone recommended to use a GPT partition table) - but this is what 'parted -l' shows on my NAS debian box:</p>

<p>Partition Table: gpt<br>
Number Start End Size File system Name Flags<br>
1 17.4kB 3000MB 3000MB Root raid</p>
<p>And this is what I typed into parted to make a raid partition:</p>
<p>mkpart Root 17.4kB 3000MB<br>
toggle 1 raid true<br></p>
<p>I have all the drive definitions in /etc/mdadm/mdadm.conf</p>
<p>Here is a copy of mine, see if it helps.<br>
<---------><br>
# mdadm.conf<br>
#<br>
# Please refer to mdadm.conf(5) for information about this file.<br>
#</p>
<p># by default, scan all partitions (/proc/partitions) for MD superblocks.<br>
# alternatively, specify devices to scan, using wildcards if desired.<br>
DEVICE partitions</p>
<p># auto-create devices with Debian standard permissions<br>
CREATE owner=root group=disk mode=0660 auto=yes</p>
<p># automatically tag new arrays as belonging to the local system<br>
HOMEHOST <system></p>
<p># instruct the monitoring daemon where to send mail alerts<br>
MAILADDR root</p>
<p># definitions of existing MD arrays<br>
ARRAY /dev/md/0 metadata=1.2 UUID=425ad056:08f06a52:adb8459e:ccfa5ba6 name=blah:0<br>
# This file was auto-generated on Sat, 02 Jul 2011 09:05:01 +0100<br>
# by mkconf 3.1.4-1+8efb9d1<br>
<-------></p>
<p>This is the output of my 'blkid' command (you need to be root).<br>
<-------><br>
/dev/sda1: UUID="425ad056-08f0-6a52-adb8-459eccfa5ba6" LABEL="blah:0" TYPE="linux_raid_member" <br>
/dev/sdb1: UUID="425ad056-08f0-6a52-adb8-459eccfa5ba6" LABEL="blah:0" TYPE="linux_raid_member" <br>
/dev/md0: UUID="90edef49-bc64-43e7-85f7-3bdb9c61b431" TYPE="ext4" <br>
<-------></p>
<p>Notice that /dev/sda1 and sda2 have the same uuid.</p>
<p>And finally here's the important line in /etc/fstab<br>
<-------><br>
UUID=90edef49-bc64-43e7-85f7-3bdb9c61b431 / ext4 noatime,defaults 0 1<br>
<-------></p>
<p>Finally I noticed that I had to run 'update-initramfs -u' to copy the new mdadm.conf into the initramfs.</p>
<p>Goodluck!</p>
<p>Owain<br><br></p>
<p>On Mar 3, 2012 9:09 PM, "Alexander Hartner" <<a href="mailto:alex@j2anywhere.com">alex@j2anywhere.com</a>> wrote:<br>
><br>
> Hi Tim<br>
><br>
> Thanks for your post. I tried this several times now, but everytime I boot of the Live CD I get md125 again. I have't been able to boot of hard drive as I keep on getting a kernel panic on boot up. I suspect the panic is caused by the kernel also not being able to find the correct md devices. I tried running the commands <br>

><br>
> mdadm -S /dev/md125<br>
> mdadm -A /dev/md1 --update=super-minor<br>
><br>
> But they didn't fix the issue. Still on every reboot from LiveCD I get back to md125. After my initial installation after I created the file system on the raid array using :<br>
><br>
> mkfs.ext4 /dev/md1<br>
> mkswap /dev/md2<br>
> swapon /dev/md2<br>
> mkfs.ext4 /dev/md3<br>
><br>
> and a reboot, fdisk now reports that the partition table for mdX is not valid. <br>
><br>
> Disk /dev/md127: 995.6 GB, 995640344576 bytes<br>
> 2 heads, 4 sectors/track, 243076256 cylinders, total 1944610048 sectors<br>
> Units = sectors of 1 * 512 = 512 bytes<br>
> Sector size (logical/physical): 512 bytes / 4096 bytes<br>
> I/O size (minimum/optimal): 4096 bytes / 4096 bytes<br>
> Disk identifier: 0x00000000<br>
><br>
> Disk /dev/md127 doesn't contain a valid partition table<br>
><br>
> Disk /dev/md126: 268 MB, 268369920 bytes<br>
> 2 heads, 4 sectors/track, 65520 cylinders, total 524160 sectors<br>
> Units = sectors of 1 * 512 = 512 bytes<br>
> Sector size (logical/physical): 512 bytes / 4096 bytes<br>
> I/O size (minimum/optimal): 4096 bytes / 4096 bytes<br>
> Disk identifier: 0x00000000<br>
><br>
> Disk /dev/md126 doesn't contain a valid partition table<br>
><br>
> Disk /dev/md125: 4294 MB, 4294901760 bytes<br>
> 2 heads, 4 sectors/track, 1048560 cylinders, total 8388480 sectors<br>
> Units = sectors of 1 * 512 = 512 bytes<br>
> Sector size (logical/physical): 512 bytes / 4096 bytes<br>
> I/O size (minimum/optimal): 4096 bytes / 4096 bytes<br>
> Disk identifier: 0x00000000<br>
><br>
> Disk /dev/md125 doesn't contain a valid partition table<br>
><br>
> I wonder why it is not picking up the partition table I created. <br>
><br>
> I am using Gentoo for this as I really like it. It makes things a little bit more complicated but generally they work, well at least until now they did. <br>
><br>
><br>
> On 03/03/2012, at 18:08 , Tim White wrote:<br>
><br>
> Basically, linux will "auto assemble" raid devices it finds, even if they aren't for the current system. Annoyingly, it'll ignore the names the raid array say they want (/dev/md1, /dev/md2 etc) and give them numbers starting at 125. (Which can break a NAS if you plug in the raid drives into a normal machine, and don't set the names to the correct numbers before putting them back in the NAS).<br>

> See <a href="https://bugzilla.novell.com/show_bug.cgi?id=638532#c1">https://bugzilla.novell.com/show_bug.cgi?id=638532#c1</a> for a solution to getting it to name them correctly and hopefully on reboot also named correctly.<br>

><br>
> What I'd do, boot off a live distro, assemble them with the correct numbers and update the preferred minor stuff (see above link), then mount them all and chroot into the system. From there, make sure that things like /etc/mdadm.conf are correct, and maybe even update your initramfs if needed.<br>

><br>
> I believe if you did a brand new OS install with an installer that supported setting up RAID as part of the install process, it would be simple. Which OS are you using? I understand that Debian should be fairly easy to get running on RAID.<br>

><br>
> Tim<br>
> p.s. Stick with mdadm, it's much more portable when something breaks. As for how it works, that depends on it's RAID level, and yes, it's software RAID so no hardware accelerated RAID5 etc, I personally don't use RAID5 preferring RAID 0, 1 and 10. Drives are (were) cheap.<br>

><br>
> On 03/03/12 13:26, Alexander Hartner wrote:<br>
><br>
> I am setting up a new system. After partitioning /dev/sda, transferring my partition over to /dev/sdb using<br>
><br>
> sfdisk -d /dev/sda | sfdisk --force /dev/sdb<br>
><br>
><br>
> And setting up the raid arrays using :<br>
><br>
> mdadm --create --verbose /dev/md1 --assume-clean --level=1 -e 0.90 --raid-devices=2 /dev/sda1 /dev/sdb1<br>
> mdadm --create --verbose /dev/md2 --assume-clean --level=1 -e 0.90 --raid-devices=2 /dev/sda2 /dev/sdb2<br>
> mdadm --create --verbose /dev/md3 --assume-clean --level=1 -e 0.90 --raid-devices=2 /dev/sda3 /dev/sdb3<br>
><br>
> Everything seems OK, however if I reboot all the drive names change to :<br>
><br>
> cat /proc/mdstat <br>
> Personalities : [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] <br>
> md125 : active (auto-read-only) raid1 sdb1[1] sda1[0]<br>
>       262080 blocks [2/2] [UU]<br>
>       <br>
> md126 : active (auto-read-only) raid1 sdb2[1] sda2[0]<br>
>       4194240 blocks [2/2] [UU]<br>
>       <br>
> md127 : active (auto-read-only) raid1 sdb3[1] sda3[0]<br>
>       972305024 blocks [2/2] [UU]<br>
>       <br>
> unused devices: <none><br>
><br>
> While this in itself may not be a problem, after I install my OS (Linux of course) I get a kernel panic. I suspect the kernel panic is due to the kernel not finding the partition I specified in grub.conf and fstab (i.e. : /dev/md1|2|3). <br>

><br>
> I have been struggling with mdadm raid for several days now, with little progress to show. dmraid seems to leverage what little support is provided by my onboard RAID controller, which seems like a good think. mdadm seems to just keep both drives in sync with each other without leveraging hardware. I might well be wrong there. So far I only tried mdadm.<br>

><br>
> Alex<br>
><br>
><br>
> On 03/03/2012, at 09:33 , Marcos Raul Carot Collins wrote:<br>
><br>
> Are you installing the OS or are you trying to implement to an extra hard disk<br>
> after installing?<br>
><br>
> I only set it up in Debian at install time (mdadm) and although you need some<br>
> partitioning background, it is prety easy. Let me know if that's your case and<br>
> I can guide you.<br>
><br>
> I haven't tried in other OSes...<br>
><br>
> Cheers,<br>
><br>
> Marcos<br>
><br>
> On Sábado 03 Marzo 2012 05:17:12 Tim White escribió:<br>
><br>
> On 03/03/12 04:36, Alexander Hartner wrote:<br>
><br>
> Has anybody got any experience with either / both ? Which one do you<br>
><br>
> suggest ? I have been trying to configure mdadm for the past week<br>
><br>
> without success. Should I persist or try dmraid ? Is mdadm really so<br>
><br>
> much better then dmraid ?<br>
><br>
><br>
> I've never used dmraid (and a quick read suggests it's for "software<br>
><br>
> raid" provided by certain bios).<br>
><br>
> What are you trying to achieve? I have successfully used mdadm many<br>
><br>
> times in the past, both with setting up raid and with repairing NAS's.<br>
><br>
><br>
> Tim<br>
><br>
> _______________________________________________<br>
><br>
> PLUG discussion list: <a href="mailto:plug@plug.org.au">plug@plug.org.au</a><br>
><br>
> <a href="http://lists.plug.org.au/mailman/listinfo/plug">http://lists.plug.org.au/mailman/listinfo/plug</a><br>
><br>
> Committee e-mail: <a href="mailto:committee@plug.org.au">committee@plug.org.au</a><br>
><br>
> PLUG Membership: <a href="http://www.plug.org.au/membership">http://www.plug.org.au/membership</a><br>
><br>
> _______________________________________________<br>
> PLUG discussion list: <a href="mailto:plug@plug.org.au">plug@plug.org.au</a><br>
> <a href="http://lists.plug.org.au/mailman/listinfo/plug">http://lists.plug.org.au/mailman/listinfo/plug</a><br>
> Committee e-mail: <a href="mailto:committee@plug.org.au">committee@plug.org.au</a><br>
> PLUG Membership: <a href="http://www.plug.org.au/membership">http://www.plug.org.au/membership</a><br>
><br>
><br>
><br>
><br>
> _______________________________________________<br>
> PLUG discussion list: <a href="mailto:plug@plug.org.au">plug@plug.org.au</a><br>
> <a href="http://lists.plug.org.au/mailman/listinfo/plug">http://lists.plug.org.au/mailman/listinfo/plug</a><br>
> Committee e-mail: <a href="mailto:committee@plug.org.au">committee@plug.org.au</a><br>
> PLUG Membership: <a href="http://www.plug.org.au/membership">http://www.plug.org.au/membership</a><br>
><br>
><br>
><br>
><br>
> _______________________________________________<br>
> PLUG discussion list: <a href="mailto:plug@plug.org.au">plug@plug.org.au</a><br>
> <a href="http://lists.plug.org.au/mailman/listinfo/plug">http://lists.plug.org.au/mailman/listinfo/plug</a><br>
> Committee e-mail: <a href="mailto:committee@plug.org.au">committee@plug.org.au</a><br>
> PLUG Membership: <a href="http://www.plug.org.au/membership">http://www.plug.org.au/membership</a></p>