複数のスキーマのソースを生成するときのmavenメモ

id を指定するのを忘れないこと

java - How can i tell jaxb / Maven to genereate multiple schema packages? - Stack Overflow
http://stackoverflow.com/questions/2857081/how-can-i-tell-jaxb-maven-to-genereate-multiple-schema-packages

上のところにも書いてあったが

                            <removeOldOutput>false</removeOldOutput>
                            <clearOutputDir>false</clearOutputDir>
                            <forceRegenerate>true</forceRegenerate>

これが大事なようなのと、あとはidの指定を忘れないこと

                <groupId>org.jvnet.jaxb2.maven2</groupId>
                <artifactId>maven-jaxb2-plugin</artifactId>
                <version>0.7.5</version>
                <executions>
                    <execution>
                        <id>sequence.generate</id>
                        <goals>
                            <goal>generate</goal>
                        </goals>
                        <configuration>
                            <generatePackage>com.github.das16.entity.sequence</generatePackage>
                            <schemaIncludes>
                                <schemaInclude>sequence.xsd</schemaInclude>
                            </schemaIncludes>
                            <removeOldOutput>false</removeOldOutput>
                            <clearOutputDir>false</clearOutputDir>
                            <forceRegenerate>true</forceRegenerate>

                        </configuration>
                    </execution>
                    <execution>
                        <id>generate.types</id>
                        <goals>
                            <goal>generate</goal>
                        </goals>
                        <configuration>
                            <generatePackage>com.github.das16.entity.types</generatePackage>
                            <bindingIncludes>
                                <bindingInclude>types/types.xjb</bindingInclude>
                            </bindingIncludes>
                            <schemaIncludes>
                                <schemaInclude>types.xsd</schemaInclude>
                            </schemaIncludes>
                            <removeOldOutput>false</removeOldOutput>
                            <clearOutputDir>false</clearOutputDir>
                            <forceRegenerate>true</forceRegenerate>

                        </configuration>
                    </execution>

python の テスト結果をjenkinsで読めるようだ

ないのかなぁっておもってたら、あった。
あとでためそう。

unittest-xml-reporting

ってやつを使えばよいのか。

Debian -- Details of package python-xmlrunner in sid
http://packages.debian.org/hu/sid/python-xmlrunner

unittest-xml-reporting is a Python "unittest" test runner that saves test results to machine-readble XML files that can be consumed by a wide range of development tools such as build systems, IDEs and continuous integration servers (such as Hudson/Jenkins).

It also includes an adaptor so that it can be used in conjunction with the Django web development framework. 

relaxng の validation

xml - Using Jing with Google App Engine. Can't load SchemaFactory given Relax NG schema. - Stack Overflow
http://stackoverflow.com/questions/4983057/using-jing-with-google-app-engine-cant-load-schemafactory-given-relax-ng-schema

		<dependency>
			<groupId>com.thaiopensource</groupId>
			<artifactId>jing</artifactId>
			<version>20091111</version>
		</dependency>
import com.thaiopensource.relaxng.jaxp.XMLSyntaxSchemaFactory;
        SchemaFactory factory = new XMLSyntaxSchemaFactory();
        Source schemaFile = new StreamSource(new File("sources.rng"));
        //Source schemaFile = new StreamSource(inputStream);
        Schema schema = factory.newSchema(schemaFile);

少なくともschemaがnullでないということはわかった。

hadoop eclipse plugin を eclipse helios などでつかう。

[#MAPREDUCE-1280] Eclipse Plugin does not work with Eclipse Ganymede
(3.4) - ASF JIRA
https://issues.apache.org/jira/browse/MAPREDUCE-1280

cdh3u0の環境に対して
hadoop-0.20.2.tar.gz
のなかにあるeclipseプラグインでは、うまく動かなかった。
clouderaのソースは、どうもeclipse用のプラグインが作成できなかったので。

以下、作業。

eclipse hadoop pluginを展開して、
使いたいバージョンの、hadoop core (cdh3u0とか) を
lib/hadoop-core.jar
としてコピー

META-INF/MANIFEST.MF
の中に、lib/hadoop-core.jar
を指定している、次のような記述があるため

Bundle-ClassPath: classes/,lib/hadoop-core.jar
Bundle-Vendor: Apache Hadoop

以下だいたいのながれ

wget https://repository.cloudera.com/content/repositories/releases/org/apache/hadoop/hadoop-core/0.20.2-cdh3u0/hadoop-core-0.20.2-cdh3u0.jar
wget https://issues.apache.org/jira/secure/attachment/12460491/hadoop-eclipse-plugin-0.20.3-SNAPSHOT.jar
mkdir ehp-cdh3u0
cd ehp-cdh3u0
unzip ../hadoop-eclipse-plugin-0.20.3-SNAPSHOT.jar
cp ../hadoop-core-0.20.2-cdh3u0.jar lib/hadoop-core.jar
zip -r ../hadoop-eclipse-plugin-0.20.3-SNAPSHOT-cdh3u0.jar .

環境によりけりだろうけど、どうもdfsだったかのデフォルトのポートを50040ってうまるので
そこを8020などにかえると動いた。

egitからgit-daemonへコミットするとき

最初は、コマンドラインgitからpushできなくて、
/etc/service/git-daemon/run

--enable=receive-pack

を追加したら、うまくいった

ところが
egitから、git://のところにコミットしたら
"push not permitted"
と、なってコミットできなかった。

オプションをつけたり消したりしていたら、コマンドラインからでもコミットできなくなってしまった。
(まえと同じにしたはずなんだが、、、)

ということで、
hogehoge.git/config
に以下を追加して解決

[daemon]
        uploadpack = true
        receivepack = true

最後に、パーミッションを調整すること

kvmclone.pl を ubuntu で使えるようにした

kvmclone for ubuntu ― Gist
https://gist.github.com/948124

もともとは、つぎのページにあったもの。

RHEL5.x/RHEL6.0 KVM 仮想マシンの自動複製
http://www-06.ibm.com/jp/domino01/mkt/cnpages7.nsf/page/default-0004E0BB

redhat用だったので、
ubuntuで動くようにしてみた。

あと、qcow2形式でもクローンできるようにした。
(自分はqcow2でしか試していないです)

次のようなところに気をつければ
・マウントするところ
・ルートディスクを探すところ
・設定を書き換える所のうち、機種依存の部分
ほかにもサポートできそうな気がします。

なんだか動かないときは
virsh uri
で確認
qemu:///session
でどうもだめとかあれば

export VIRSH_DEFAULT_CONNECT_URI=qemu:///system