HOME > ETC. > STARTING OVER日記。 > 新びくでん作成

STARTING OVER日記。

新びくでん作成に関する記事のまとめです。

2 3 4 5 6 7 次の10件

2008年08月28日(木)

水面下での作業。

諸事情あり、自宅を整理する日々だったりします。
いや、現在2部屋持っているのに、1部屋は倉庫代わりにしていて、それを有効利用するべという作戦で、ホンマモンの倉庫に物を移し替える作業をやっております。
つまり、大規模模様替え。

ま、これはびくでんの話ではなく、リアルな話ですが。

で。
グッズとかCDとかも整理対象になっております。
整理対象って言っても、「=処分対象」ではなく、とりあえず倉庫に収納ってことで。
(捨ててたまるかい。)

実は現時点でグッズは倉庫に入ってしまって、そのうち余裕が出来たら写真撮影して、データベースを作るつもりで。
まぁ、何年の物という区分は今回きっちりできたので、今後の作業も楽です。
それに、実際は1998年秋からのグッズ写真は過去に撮影した物があるので、その前の15年分ぐらいの撮影が必要だという程度で。
(25年分じゃなくてよかったよ。)

で、ですよ。
現在何をやっているかというと、CDを片付ける作業の一貫として、片付けの空き時間にデータを打ち込んでいたりします。
リリース日とかはそれこそ、「地球音楽ライブラリー」をパクれば出来ますけどね、あれではデータ、足りないし。(苦笑)
※あれ、ヌケがありますよ。間違いも少々。
で、このデータ入力も今日・明日には終了するかと推測。

とか言いつつ。
実は、所ジョージさんの作品(CD・LP・EP)はデータ打ち込み前に間違って全て倉庫に入れちゃったので、この辺のフォローも近いうちにせねばならんのですが。
(メンバー、絡んでるからね。ツーハーンとか寿司屋とか。)

そんなわけで、近いうちに提供作品に関するデータもどうにか公開レベルに持って行けるかと。

いやいや、実際は、データを打ち込んでいるだけで、今後、使えるように整形せねばいかんのですけどね。
それはまた今後のオハナシで。

 

2008年08月08日(金)

何とか山は一つ越えました。

「今日は何の日?」を新しくしました。
今度のは通算本数も出ます。
つまり、データをマージする作業が一応出来たということで。
いやはや、大変だったさぁ。

しかし今回の改訂で、セットリストへの自動リンクも出来るようになりました。
いや、今のところはセットリスト自体がどうなるかわかんないので、やってませんけど。
(テストはしたけど、公開した分には実装していない。)

あと、「何本目?」のCGIはまだいじってません。
来週には「何の日?」で使い始めたデータを使い、レイアウトも変更した形で公開しようかと。

携帯版の「何の日?」も新しくしましたとさ。
今日は眠気も起きず、結構順調です。
(ここんとこ、夕方になると眠い。)

 

2008年08月06日(水)

作業をちょっと。

ドリジェネのページは作ったさー。
提供作品や参加作品のページはこれから。
DataBoxのパージ計画も着々。

今日は何の日?と何本目?のデータ統一。
下準備を始める予定。

懸案事項はセットリストの登録方法。

MTをやめるとなると、自作で何とかセットリストに特化したCMSを作れないかと。
少なくとも、メールで投稿、っていうのはやりたい。
っていうか、そうじゃないと面倒。

メールで投稿→メール読み込みページのリロード→ページ作成 ってどういう仕組みなんざんしょ。
(そこかい。)
POPサーバに入ったメールを取得してんだよね?
(当てずっぽう。)
POPの中身の取得ってどうやるんかな。
とりあえず、「何の日?」のデータ作成をしながら考えようっと。

 

2008年08月04日(月)

久々に。

あー、ロードマップだ何だと書いていますけどね。

こちとら色々と事情が変わりまして。
ま、やれることからやっていこう、な感じになってきました。

…ロードマップ作ったって守れそうにないっすよ。
この辺は大人の事情。
(どんな事情やねん。)

何はともあれ、最低限やらねばなぁとおもっているのは以下の通り。
・DataBoxのデータサルベージ。
(提供作品、参加作品リストの本家組み込み、ドリジェネページ作成)
・今日は何の日?と何本目?データの統一化
・春ツアーグッズページ作成
(まだ作ってませんでした。)

それと、SQL関係の作業が先延ばしになったままなので、こちらをどうにか。

あー、正直ですね。
MTって便利だけど、こんなに多用してていいのか?な感じで。
(SQL使っていることで、少々難点が。)
実妹のサイトのブログに使っているヤツにVitzでんあたりはシフト出来るかと画策中。
(その他のCMSも調べているところ。)

曲目ページについては、MT以外のCMSが使えたらそれでもいいかー、みたいな。
(こちらは実妹のサイトで使っているヤツは使わない方向で。)
ただ、そうしてしまって、MT以外に変えた場合、旧ページと新ページの紐付けが難しいんかなぁ?とか。

自分の参加していないライブの曲目を入れようと、一身上の都合で方針転換したのですが、そうなると、現在のMTではちょっとな、と思ったことが発端で。
(チケット画像、無いライブが増えてくると思われる為。)

ま、そんなことを思っているわけですが。
何にしても、やれることから、な感じで。

 

2008年01月23日(水)

鋭意作業中。

とりあえず、モジュール版PHPの調子がおかしいので、色々と作業しています。

最優先は、DataBoxとして使っているPukiWikiからのデータ移動。
今日はシングル関係のページを移動させました。
明日はアルバム関係に着手予定。

ツアースケジュールの反映とかは全て後回しで。

 

2007年09月05日(水)

Namazuデビュウ。

全文検索、正式稼働に入りました。
リンクも貼りました。
一応随分前からこのURLにはあるんですけどね。
http://www.victory-garden.com/namazu/

気になるところも少々あるのですが、使いながら変更します。

 

2007年07月31日(火)

月刊ぬべび・7月号。

月刊ぬべびは今月1ヶ月を振り返り、来月1ヶ月の目標を見出すものです。
(そう決めた。)

先月の月刊ぬべびによると…。

さーて、次回の「月刊ぬべび」までの目標。
・都道府県別会場リストをDataBoxから移行。(ほんまに出来るんかー?)
・スタイルシート周りの小作業。(ほんまに出来るんかー??)
・「アー日記。」のデザイン移行。(ほんまにほんまに出来るんかー???)

この中で達成できたのは会場リストをDataBoxから移行したことのみでした。
その他にやったことは、ツアーデータと歌詞データをDataBoxから移行したこととか。
Namazu関係の作業もあれこれとやりましたのでよしとしましょう。

来月の目標は、
・Namazuの正式稼動
・作品データの移設準備
・歌詞データ索引(携帯対応版)
が大きなところで、その他は
・アルフィー秋ツアー関係
・和幸関係
・高見沢ソロツアー関係
といったところとか、表に出ないあたりでは、データフォーマットの統一。

来月はMT4も正式リリースなので、「アー日記。」の変更もそろそろきちんとやりましょう。
それに伴い、CSSもスッキリさせたいところです。

 

2007年07月26日(木)

Namazu関係おぼえがき。(4:結果報告のみ)

■PukiWikiの内容をインデックス化する件。
・何故かPukiWikiのサイトに載っていた方法ではうまく出来なかった。
 (インデックス化は出来たが、アドレスが正しくない)
→方法1:PukiWikiから通常ページの移行を早める。(いずれは大半のページをHTMLにする気だが、PukiWikiで残すページもあり、解決策にはならない)
→方法2:ひたすら試す。(絨毯爆撃?)

【結果】
手順1.PukiWikiのサイトに載っていた更新毎のインデックス書き換えはしないことに。(どうせcronでやるんだし。)なので、PukiWiki本体は全く弄らないことに決定。
手順2.PukiWikiのサイトに載っていた文書フィルタ「pukiwiki.pl」のURLを吐き出す部分を修正。
手順3.wikiディレクトリ内のみをcronでインデックス化。

上記で無事にインデックス化できましたとさ。

pukiwiki.plの修正は
その1:
・旧=my ($path,$file,$ext) = $cfile =~ m#^(.*/)(.*)(\.txt)$#;
・新=my ($path,$file,$ext) = $cfile =~ m#^(.*/)wiki\/(.*)(\.txt)$#;
その2:
・旧=$fields->{'uri'} = "$path$file";
・新=$fields->{'uri'} = "$path?$file";
の2箇所。
少々力業っぽい気もしますが、無事動くからいいでしょう。
っていうか、PukiWikiのサイト通りの手順ではないし。
(「namazurcを修正」はやってません。上記で充分なんで。)

まぁ、どっちにしろ、そのうちPukiWikiのページは今以上に少なくなる予定なのですが。

 

2007年07月25日(水)

Namazu関係おぼえがき。(3:結果報告のみ)

■テンプレートに合計の数(<!-- FILE --> とか<!-- KEY --> とか)が反映されない件。
→方法1:KEYの数はNMZ.wから、ページの数はNMZ.field.*のどれでもから取得できるので、それぞれのインデックスのその部分を検出して合計して表示させるCGIを組む。(ほどほどに正確)
→方法1':KEYの数は単純に合計しただけでは重複する可能性があるので、読み込んでソートして、重複分を排除するCGIを組む。(かなり正確)
→方法2:面倒なので、合計数は出さない。(ある意味一番楽。)

【結果】
手順1.NMZ.head.jaを読んで、FILEやKEYの記載をしている部分を抜き出し、合計。
手順2.合計数を3桁ずつ桁区切りして保存。
手順3.検索画面で表示

本当はNMZ.wを読み込んでマージしてソートしてKEYの数を、NMZ.field.sizeを読み込んでマージしてソートしてFILEの数を出したほうが正確なんですけど、暫定。
近いうちにやってみます。

 

Namazu関係おぼえがき。(2:結果報告のみ)

■ダイナミックパブリッシングの日記もインデックス化する件。
→方法1:内容ファイル作成。それに対応したフィルタを作成し、cronで自動的にインデックス化。(少々面倒)
→方法2:エントリーアーカイブだけはダイナミックパブリッシングをやめて、通常通りにインデックス化。(退化。)
・問題点:「アー日記」だけは微妙に違うディレクトリ構造の調整が先決。そうでないと、「アー日記」用に別のフィルタを作る必要が出てくる。

【結果】
手順1.「アー日記」のディレクトリ構造を他の日記系と統一。エントリの調整。
手順2.エントリー・アーカイブとしてタイトルと内容と日付を出力する内容ファイルのテンプレートを作成。
手順3.内容ファイルのみをcronでインデックス化。

上記で無事にダイナミックパブリッシングをしつつ、日記もインデックス化できましたとさ。
ダイナミックパブリッシングをやめて、HTML出力することも考えましたが、サイズがかなりデカくなるので、簡単な内容ファイルを作成(普通のテキスト)、それを特別なフィルタを通して読み込ませるようにしました。
cronの実行は負荷が少ないと思われる早朝。

 

2 3 4 5 6 7 次の10件