本ページに出てくる設定ファイル中のアドレス、ユーザ名等は架空のものである場合があります。
ISDNを引いてみました |
![]() |
||
|
|
||
| ドアを2箇所も通過するのでDSUなしのMN128-SOHOとDSUを別々の購入
2Fフロアにも進出 [ Retunrn ]
|
MN128-SOHOトラブル |
最近分かったこと(1999/1/1)
どうもパケットの量が増えると死ぬみたいな。。 FTPとか重いことしているときSOHOのdnsが死ぬときもある。
| 97/08/03 | 05:10 | MN128-SOHOにアクセスできないことが判明。 |
| 97/08/03 | 05:19 | 本体再起動により復旧。原因は不明。 |
| 97/08/07 | 06:13 | MN128-SOHOに再びアクセス不能となる。 |
| 97/08/07 | 06:13 | 本体再起動により復旧を試みるものの、依然アクセス不能 |
| 97/08/07 | 06:14 | これまでhttp://MN128/index.cgiにアクセスを試みていたが、http://MN128/にアクセスを試みたらこれがうまくアクセスでき、index.cgiにもアクセス可能となった。 |
| 97/09/18 | 23:20 | MN128-SOHOでB2チャネルからアクセスできないことが判明。 |
| 97/09/18 | 23:30 | MN128-SOHOでアナログの電話はB2チャネルから使用可能であることが確認。 |
| 98/03/04 | 01:15 | 前日と同様にまたもやハング |
同軸ケーブルをF型コネクタにかえる部品
LinuxでMN128-SOHOの自動操縦 |
基本的にSOHOはTELNETで繋げられるので、Unix系のOS使ったマシンを繋げていれば、自動操縦は難しくありません。
たまたま、テレホタイムが開始されてから、PCの電源を入れた場合も
/etc/rc.d/init.d/mn128-soho
というような起動スクリプトを書いてあり、もし、テレホタイムに入っていたらネットに繋ぎに行くようになっています。
なぜLAN側ネームサーバアドレスを設定しっぱなしにしないかと思われるかも知れません。それはLAN側のネームサーバの電源が落ちていてもLAN内の他のマシンが外のDNS(プロバイダ)を使ってネットサーフィン等ができるようにするためです。
| 参考資料 |
| mn128-soho | /etc/rc.d/init.d以下において使ってます。 |
| getsoho | crontabで一定期間ごとに呼んでいます。 |
| router.pl | router.pl [SOHOのtelnetコマンド]
のように使います。 thanks mn128-soho mailling list! |
| connect.pl | テレホタイムかどうかのチェック |
| Net-Telnet-3.00.tgz | perlでソケットを使いやすくするライブラリ
router.plに必要なんです。 お近くのCPANのミラーからダウンロードしてください。 |
あ、ついでにbindの設定も少々
named.boot named.rootはちなみに空のファイルです。でないと酷いことが。。。
ま、forwarders にSOHOのアドレス書いて、slaveのおまじないを入れるのがポイントです。
nampa2のLAN構成 |
| nadesico | |
| OS | Linux |
| ネームサーバ | bind |
| FTPサーバ | wu-ftpd |
| ニュースサーバ | inn |
| IMAPサーバ | |
| Apple Share サーバ | netatalk rpmになっているものをインストール |
| ? | samba 日本語が使えるようにmake |
nadesicoにDNS、http、プロキシ、News、POP、IMAP、FTPサーバをやらせています。あと、SAMBAサーバとNetatalkを動かして共通ホームにしています。
[ Retunrn ]
プロキシサーバをたてよう |
オンラインのときは普通のプロキシとしてキャッシングを行い、オフラインのときは要求されたURLがキャッシュにあればその内容をブラウザに出力し、要求されたURLがキャッシュに存在していないと、そのURLを次回オンライ時に取得(実際にはwwwoffle
-onlineを実行した後、wwwoffle -fetchを実行しなければならない。)するように記録します。
また、コマンドライン以外にブラウザ経由で各種設定ができるようになっています。
以下古いお話し
昔はSquidを使っていました。ftpもキャッシュが効くので、Mac等の不安定なOSでNetscapeなどでファイルをダウンロードしていて、途中でフリーズしても、プロキシの方でダウンロードし続けてくれるので、途中までのダウンロードが無駄になりません。(やたらに大きいファイルは除く。)
利点をもう一つ、ダウンロードする前にファイルをどこにおけばいいか、ダイアログがでてきますよね、このときもsquidを使っているととっととダウンロードを開始してくれます。私はトロイので、結構このダイアログの相手にてこずり、それが終ると実はもうダウンロードも済んでいたりして、ネスケの転送レイトが鬼のような値を叩きだし、即ダウンロード終了になります。
キャッシュマネージャ(cachemgr.cgi)を使うには $(squid_home)/etc/squid.confに
cachemgr_passwd hogehoge all
を書き加える。この例ではパスワードはhogehogeです。
もちろんCGIが実行可能なhttpサーバが動いていて、cachemgr.cgiが適切なディレクトリ(私の場合は/cgi-bin)に置いてあることが必要です。
Newsサーバをたてよう(ロムだけでいいのか?!) |
ATXのマシンにしたので早朝自動的にマシンを起動しています。(AT機の音がうるさくて寝れないので、寝るときに電源を切っています。)
以前は、gnspoolで記事を取得していたのですが、やはりニュースに投稿できる環境も欲しいと考え、suckに移行しています。まだ投稿出来るようにはなってませんが...
もちろん、gnspoolでもニュースリーダとしてgnusや、mnewsなどを使えば投稿が出来るのですが、私はネットスケープのニュースリーダを使っているのでsuck+innの組合せにする必要があったのです。
この早朝の起動時にsuckでNetNewsの記事をスプール(ダウンロード)しておき、あとでローカルのニュースサーバで、ゆっくりと記事を読むことができます。
| 記事の中のURLをあらかじめ巡回しておく |
オフラインでニュースを読んでいると記事の中にURLが書かれていることがあり、当然ながらオフラインなので、このURLをクリックしても目的のページを見ることが出来ません。これをなんとか読めるように出来ないかと考えたのが以下の方法です。NetNewsの記事中に記載されたURL(といってもhttp://しかないか?)を寝ている間にwgetを利用してwwwoffleのキャッシュにいれておきます。
これでオフラインで記事を読みながら記載されたURLをクリックしてもきちんとページが表示されるかもしれなくなります。(残念ながら完璧にはいかないですが、そこそこいけてます。)
参考資料
urlget.pl ファイルまたは標準入力から、http://のURL文字列を抜き出す。 autoWgetHtml.pl wgetを利用してwwwoffleに登録 # fj URLDL
find /var/spool/news/articles/fj/ -type f | xargs /usr/local/bin/nkf -e | /usr/l
ocal/bin/urlget.pl | sort -u | /usr/local/bin/autoWgetHtml.plfjの購読しているグループ内の記事のなかのURLを巡回する。
IMAP4サーバをたてよう |
快適なネットサーフィンをしている間に、cron等で定期的にfetchmailでmailをスプール(ダウンロード)して、ローカルのクライアントマシンのIMAP4クライアントプログラム(Netscape Communicator)から、ローカルのIMAPサーバにアクセスし、メールを読むことができます。しかも、ローカルのどのマシンでも、IMAP4の場合、メールボックスはIMAPサーバ上のあるので、POP3サーバでの管理と違い、クライアント(パソコン)ごとに、メールの整理をしなおさなくて済みます。
例)たまには、今となってはメチャ遅いLC630でメールを整理したいし、いつもはそこそこ速いPCでLinuxを動かしているマシンで整理したりと。
| fetchmailの運用 |
各々のユーザにホームディレクトリに
.fetchmailrcというファイルを作成し、
poll nise.domain.lan protocol pop3 username gonzaemon password OShiEMaSeN
のように設定を書いておく
適当なファイルに
#! /bin/bash
su gonzaemon -c 'fetchmail -d 800 -a'
のように書いて、これをルートで実行しています。
Wgetでウエブページをダウンロード |
ダイアルアップな環境で使用しているためオフライン時に予約できる機能をつけてみました。
注)apachでsuExec付でコンパイルしていないとダメです。(一般ユーザの~/public_html以下で動作するようにしたため。)
| ファイル名 | 置き場所 |
| nph-wget.cgi | ~/public_html/cgi-bin/ |
| wget.cgi | ~/public_html/cgi-bin/ |
~/work/webと言うディレクトリを作成し、これをnph-wget.cgi、wget.cgiの該当箇所にフルパスで書く。
LinuxとMacのファイル共有 |
ここでの方法は、Netatalkを使う方法です。
マックのファイルシステム[HFS]をLinuxで扱えるようにします。これとNetatalkを組合せることにより、LinuxにつながっているZipドライブにマック用のZipディスクをいれ、Linuxでマウントし、それをAppleShare経由でマックにマウントすることいったことが可能になります。
欠点としては、こうした場合、LinuxでマウントしたZipディスクの名称変更ができないということです。
/etc/fstabの例
/dev/sdb /mnt/mac_zip hfs fork=netatalk,noauto,user,rw 0 0
関連リンク |