おのたく日記 YouTubeも始めました→
2003-02-09(Sun) 今日もeclipseのお勉強 この日を編集
■ LombozでEJB TEST Clientを作った
J2EE RI 1.3.1のサーバーでの動作を確認した。
とりあえず、画面イメージとか張ってないけど、ざくっと書いた。
EJB-Client作成
■ LambozのWARもJ2EE RIでdeploy
なんかEJB JARとは違って、WARファイルの出来るところが、変だったけど、なんとかブラウザーで見えるようになりました。(といっても、EJBを呼び出すJSPじゃなくて、単に時間を表示るJSPだけしか、作ってないけどね)
■ プロジェクトでのJTest利用指針
つまり、数行を見て分かるコードにしておいて冗長で良しなのね。
Scenarioベースのテストケースというのは、普段使っている方法だ♪
「オブジェクトの文字列表現を活用しよう」http://member.nifty.ne.jp/masarl/article/junit/to-string.html でのassertEquals(期待値, 実測値);をオブジェクト単位で大きく取って、ストリングで比較しちゃおうというのは、見通しが良くなってGOODだと思った。
2004-02-09(Mon) この日を編集
■ [Security] MailScannerバージョンアップ
ちょっと前より、アンチウイルス(unti virus)エンジンにF-Protを使い始めたんだけど、F-Protは、最新版しか手に入らないので、MailScanner V3に手を入れながら使っていたんだけど、どうも、うまく動かないでのMailScannerをバージョンアップすることにした。
そもそも、Debian 3.0(WOODY)のMailScannerは、sendmail対応の部分にBugが有るので、いままでもtestingから
libmime-perl_5.411-2_all.deb
mailscanner_3.27.1-1_all.deb
とって来て入れていた。しかし、これでも最新F-Protに対応していないので、testingより今日現在の最新版
libnet-cidr-perl_0.09-1_all.deb
mailscanner_4.25.14-3_all.deb
を取ってきて入れた。MailScannerのV3→V4のバージョンアップは、V4で、ルールセットという概念が追加されたので、Debianでも自動的に出来ないので、設定は手間取ったけど、これで無事に動いている。
unstableをみると mailscanner_4.26.7-2_all.deb という新しいのがあるけど、まだ手を出していない。
■ [Security] ライブドア、Webカメラを活用したホームセキュリティソフト「防犯24時」
2月8日の日記にコレガの製品を紹介したけど、こんどはライプドアから、こちらはWebで送るにはPCが必要だし、無線LANなしのみ。
動きを検知したらメイルに送信する基本機能がついていて5,800円とはコレガより全然安いぞ。
■ 「いがぴょんOFF - 2004/03/03(水) 19:30〜22:00 とらねこ&いがぴょん合コン@東京を開催」
おー どらねこさんの家は大船らしいけど、銀座辺りで集まるらしい。 ちょっと、興味あり。
2005-02-09(Wed) この日を編集
■ [Blog] かってに解体新書〜梅田望夫blog
「My Life Between Silicon Valley and Japan - 解体新書」で紹介されていて知ったんだけど、梅田さんの注目した記事を翻訳してくれている人がいた。
「CNETの頃はまだ日本語があって読みやすかった!」
[かってに解体新書〜梅田望夫blogより引用]
そーだよね。最近の梅田さんのblogは読み飛ばしていたので助かる。
■ サービスパックが当たったWindowsインストールCD-ROMを作成する
Linuxだと、cp /dev/cdrom image.isoで取得できるISO9660のCDイメージをWindowsで、どうやって取得するのか知りたくて調べているときに出てきたのでメモ
Windows XP SP2 統合・カスタマイズCD作成のまとめ
「Windows XP,2000 SP適用済みCDの作成」市販のCD-Writingツールが必要だけど
「SPブートイメージ作成」 これはmkisofsにより市販ツール不要
2006-02-09(Thu) この日を編集
■ フレッシュリーダーのクローラーが動作しなくなった
β2を利用しているけれど、フレッシュリーダーのクローラーが動作しなくなった
日時 | ステータス | 詳細 |
---|---|---|
[2006/01/30 23:21:59] |
[重複終了] |
90 サイトの最新記事を 0 秒で取得しました。 (更新中の別プロセスが重複して存在したため、処理を終了しました) |
[2006/01/30 06:13:00] |
[正常終了] |
133 サイトの最新記事を 59 秒で取得しました。 |
[2006/01/30 05:13:41] |
[正常終了] |
133 サイトの最新記事を 100 秒で取得しました。 |
最後の重複警告は、手で何回か
/usr/bin/php -f /home/www/freshreader/crawler.php
を叩いて重複起動してしまったための警告。
しかたがないので、freshreader/db/以下にフィード情報をためていると思われる
feed/ page/ sess/ upd.h/
のフォルダー以下を削除してみた。
日時
|
ステータス
|
詳細
|
---|---|---|
[2006/02/04 12:25:03] |
[正常終了] |
142 サイトの最新記事を 62 秒で取得しました。 |
ということでこれで、クローラーは動作するようになったのだけれど、個々のユーザの既読情報が失われてしまって大騒ぎだった。
削除するフォルダーが多すぎた模様なので、今度削除するときには慎重にしないとな。
|