-
- 1
- 2014/11/20(木) 16:04:08.07
-
ProxydomoはProxomitronのクローンソフトProximodoを基にして作られたプロクシフィルタリングソフトです
---- 配布・公式サイト ----
amate/Proxydomo
https://github.com/amate/Proxydomo
lafe @ ウィキ - Proxydomo
http://www31.atwiki.jp/lafe/pages/37.html
---- 関連スレ ----
【前スレ】Proxomitron Part 31
http://peace.2ch.net/test/read.cgi/win/1328625684/
Proxomitron フィルター作成スレッド Part15
http://anago.2ch.net/test/read.cgi/software/1383031170/
【Proxomitron】 proximodo 【後継】
http://pc11.2ch.net/test/read.cgi/software/1110563904/
-
- 655
- 2018/06/19(火) 20:30:26.51
-
後から読み込まれる部分の実際のレスポンスデータを見てフィルタ書けばいい
Ajaxか何かでリクエストが発生するなら、呼び出し元ページのURLと違ってマッチしない場合があるから要確認
レスポンスの Content-Type ヘッダが JavaScript や XML になってるなら、ヘッダを書き換えるか $FILTER(true) でフィルタリング出来るようにしてやる
-
- 656
- 2018/06/20(水) 16:56:45.43
-
>>655
リクエストされるURLをログウィンドウで見つけれたので、
修正し動作出来ました。
-
- 657
- 2018/06/30(土) 12:12:07.73
-
テレビ王国がhttpsしか繋がらなくなった為、開発終了の非対応ソフトで
http://tv.so-net.ne.jp/chart/cs/skylist.action
↓
https://tv.so-net.ne.jp/chart/cs/skylist.action
[HTTP headers]
Key = "URL: tv"
In = FALSE
Out = TRUE
Version = ""
Author = ""
Comment = ""
Active = TRUE
Multi = FALSE
URL = "tv.so-net.ne.jp/chart/\0$RDIR(https://tv.so-net.ne.jp/chart/\0)"
Bounds = ""
Limit = 256
Match = ""
Replace = ""
とかだけでは無理なのでしょうか?
-
- 658
- 2018/06/30(土) 15:07:52.50
-
[HTTP headers]
Key = "URL: new filter"
In = FALSE
Out = TRUE
Version = ""
Author = ""
Comment = ""
Active = TRUE
Multi = FALSE
URL = "tv.so-net.ne.jp/chart/cs/skylist.action$URL(http://)"
Bounds = ""
Limit = 256
Match = "http://tv.so-net.ne.jp/chart/cs/skylist.action"
Replace = "http://\xhttps.tv.so-net.ne.jp/chart/cs/skylist.action"
そういうときはURLコマンドの\xhttps.を使う
-
- 659
- 2018/06/30(土) 18:09:13.90
-
>>658
有り難う御座います。
無事 TVスケジューラー2 使えるようになりました。
-
- 660
- 2018/07/10(火) 00:54:11.54
-
モニタのサイズによってはフィルタ編集のフォントが少々見づらい程小さくなってしまうのですが、
このフォントを大きくするにはシステム全体のフォントごと大きくするしかないのでしょうか?
-
- 661
- 2018/07/10(火) 02:09:35.99
-
>>660
https://github.com/amate/Proxydomo/releases/tag/v1.101
-
- 662
- 2018/07/10(火) 07:04:36.21
-
>>661
有難うございます
ちゃんと更新履歴に書いてあったんですね、お手数おかけしました
-
- 663
- 2018/07/21(土) 09:44:48.93
-
Proxydomoって同じフィルタをもう一回インポートするとダブっちゃうんだけど、そういうもの?
-
- 664
- 2018/07/21(土) 09:59:17.70
-
はい
-
- 665
- 2018/07/21(土) 14:20:32.56
-
じゃあきらめる
-
- 666
- 2018/07/26(木) 04:55:47.93
-
ちょっとスレチだけどhostsスレでスルーされたので質問
どんなHost:ヘッダを送っても必ず空ページを返すIPアドレスってないですか?
hostsで遮断した広告を127.0.0.1送りにするとエラー画面が表示されて汚いので、信用できるどこか送りにしたい(ローカルHTTPdは立てられない)
-
- 667
- 2018/07/27(金) 00:15:41.89
-
tp://local.ptron/hoge.html
とかにすればいいよ
用意したhtmldomoのhtmlフォルダへ
-
- 668
- 2018/07/27(金) 09:33:35.88
-
>(ローカルHTTPdは立てられない)
この時点で無視案件でしょ
質問内容からしてソフトをインストールする気はないようだし・・・
>>666
firefoxにRequestPolicy入れて使え
ttp://egg.5ch.net/ を表示したら許可指定するまでegg.5ch.net以外からは読み込まないってプラグイン
-
- 669
- 2018/07/27(金) 20:27:49.96
-
スルーされたんじゃなくて、ねぇのよ
何をリクエストされても空を返すだけのサイトなんて
-
- 670
- 2018/07/27(金) 21:45:48.60
-
>>669
>何をリクエストされても空を返すだけ
ローカルで(perlでスクリプト書いて)HTTPd立てれば可能
-
- 671
- 2018/07/29(日) 21:31:49.23
-
そりゃ可能だわな
けれどそれが誰でも自由に使えるものとして公開されているかは別の話
-
- 672
- 2018/07/30(月) 04:57:55.00
-
ぐぐればperlで書いてあるHTTPdは落ちてる
あとは改変するだけ
-
- 673
- 2018/07/30(月) 06:57:22.85
-
>>672
出来るかどうかとかそういう話じゃねぇから
そんな鯖が公開されてて、しかも信用出来るとかいう基地外みたいな話
-
- 674
- 2018/07/30(月) 10:25:25.98
-
元の質問無視してhttpd立てればおkと言われても
-
- 675
- 2018/07/31(火) 03:38:36.39
-
そもそもの質問がスレ違いだからまともに答えてくれる人が居ないだけ
-
- 676
- 664
- 2018/07/31(火) 11:00:31.46
-
ひょっとしたらexample.comみたいに何かあるかなと思ったのですが、やっぱりないですよね
ありがとうございました
-
- 677
- 2018/07/31(火) 12:32:05.63
-
>>676
間違ってるかもしれないけど、試しにローカルファイルへ$JUMPリダイレクトすると
何故かサイズ0で返ってくる($REDIRは503エラーとなった)
[HTTP headers]
Key = "URL: URL REDIR"
In = FALSE
Out = TRUE
Version = ""
Author = ""
Comment = ""
Active = TRUE
Multi = FALSE
URL = ""
Bounds = ""
Limit = 256
Match = "http://dummy.com/test.html"
Replace = "$JUMP(http://file//z:/x.html)"
-
- 678
- 2018/07/31(火) 14:20:03.80
-
そもそもhostsとか言ってる時点でproxo使ってねえだろ
-
- 679
- 2018/08/03(金) 18:33:04.29
-
post文字列を書き換える方法を教えてください
よろしくお願いします
-
- 681
- 2018/08/03(金) 21:50:21.69
-
>>680
ありがとうございます
とあるツールが直接吐き出すリクエストを書き換えたいのでその方法は使えないんですよね…
phpとかちんぷんかんぷんなので他の方法を探すことにします
しかし、Proxydomoはとても有用なソフトだと思うんですが、
ヘッダを書き換えられるのにpostは不可というのは片手落ちというか、非常に惜しいですね…
-
- 682
- 2018/08/13(月) 14:52:28.58
-
v1.106で効かなくなった
ログには表示されてる
[HTTP headers]
Key = "Content-Type: Force Filter"
In = TRUE
Out = FALSE
Active = TRUE
Multi = FALSE
Limit = 256
Match = "text/(^html)|application/(rss|json)"
Replace = "$FILTER(true)"
-
- 683
- 2018/08/13(月) 14:55:20.63
-
これが原因か
どう修正すればいいものか
>Content-Typeは受信ヘッダフィルターで処理されたものを見るようにした
-
- 684
- 2018/08/13(月) 15:03:03.77
-
>>683
[HTTP headers]
Key = "Content-Type: Force Filter"
In = TRUE
Out = FALSE
Version = ""
Author = ""
Comment = ""
Active = TRUE
Multi = FALSE
URL = ""
Bounds = ""
Limit = 256
Match = "(text/(^html)|application/(rss|json))\0\1"
Replace = "\0\1$FILTER(true)"
そのフィルタじゃそもそもContent-Typeが消されるからまずいんじゃ
消してもブラウザが良しなにやってくれてたんでしょうが
-
- 685
- 2018/08/13(月) 15:06:12.96
-
それは今まで手元のフィルタが不備だったのに動作してたのがおかしいという見解なんでしょうか
-
- 686
- 2018/08/13(月) 15:15:48.09
-
フィルタが動作してるのはおかしくないが
ブラウザにContent-Typeが通知されないのはまずかったかと
そこに書いてるのだけなら大した問題にはならないとは思うが
-
- 687
- 2018/08/13(月) 15:26:49.27
-
ありがとうございました
-
- 688
- 2018/08/13(月) 16:40:01.12
-
わざわざ取り込んで吐き出さなくても
Matchで$FILTER(true)したあと(^?)?とかでマッチ失敗させればいいんだぞ
-
- 689
- 2018/08/15(水) 01:27:41.94
-
Proxydomo64 v1.105 / Windows7
$RDIRを使うとContent-Typeが変わってしまう
リクエストは動画投稿サイトの動画ファイルなんだがフィルターがマッチすると
video/mp4がapplication/octet-streamになってしまう
どうにかならないですかね
[HTTP headers]
Key = "URL: hoge foo12345678"
In = FALSE
Out = TRUE
Version = ""
Author = ""
Comment = ""
Active = FALSE
Multi = FALSE
URL = "vod.hoge.com/video/foo12345678*"
Bounds = ""
Limit = 256
Match = "*"
Replace = "$RDIR(http://file//X:/video/foo12345678.mp4)"
-
- 690
- 2018/08/17(金) 12:53:27.68
-
その変換後のURLって表記正しいの?
っていうかローカルのファイルなんて読み込めるの?
そんな事可能だったらセキュリティガバガバじゃね?
-
- 691
- 2018/08/24(金) 15:05:25.22
-
Proxomitron 時代から続いている疑問。
中身が空白だったり何もなかったりで余白だけができる要素にマッチさせて消すフィルタなのですが、テストではマッチしているのに実際の使用ではなぜか働きません。
$NEST(<(div|p)\1,>)(\s|\ |$NEST(<(span|br|font),>)| |\ |</(span|font)>)+</$TST(\1)>
(<p> </p> )+{1,*}
1行めは書きかけですが、このようにしたいと思っているもの。
反応がないので2行めのように簡略化してみたものの、これもテストでしか動作しません。
対象のサンプル
<div>
<p> </p>
<p> </p>
</div>
どうすれば希望通りになるのでしょうか。
お知恵を貸してください。
-
- 692
- 2018/08/24(金) 15:11:07.78
-
1行めがうまくエスケープできませんでした。
|\ | ではなく |\&#160;| です。
-
- 693
- 2018/08/24(金) 16:33:35.98
-
そもそも$NESTの使い方がおかしいような
$NESTのstart_matchは複数回呼ばれるから$TSTとの組み合わせは意図した動作にならないだろう
(<p> </p> )+{1,*}
二行目のこれはちゃんと動いたけど
ttp://www.geocities.jp/lafe_be/
フィルターのチェックを忘れてるとかWebページフィルターを有効にしてないというオチじゃないの
-
- 694
- 2018/08/25(土) 14:02:45.65
-
>693
どうもありがとうございます。
$NEST の使い方はまだよく理解できない部分がありますので、自分のほうの問題ですね。
<p[^>]+>(\s|\ |$NEST(<(span|br|b|font),>)| |\ |</(span|b|font)>)+(</p>|(^(^<p>)))
このように $NEST $TST を使わないものも書いていますが、同じ結果になります。
[Patterns]
Name = "test"
Active = TRUE
Limit = 96
Match = "(<p> </p> )+{1,*}"
ttp://www.geocities.jp/lafe_be/
では私の環境でもマッチしました。
ttp://tokiwa-ran.hatenablog.com/
ではこちらではいかがでしょうか。私の環境ではマッチしませんでした。
共有のコンピュータを利用している都合で Proxydomo 最新版の使用には支障があるため、1.100 での実行結果です。
Proxomitron 4.5+7 でもマッチしません。
いずれもほかのページフィルタはマッチします。
-
- 695
- 2018/08/25(土) 14:26:50.76
-
>>694
そのサイトのソース見て分かったわ
そのサイトの<p> </p>で囲まれているのはスペース(0x20)ではなく、
ノーブレイクスペースっていう特殊なスペースなんだ(0xA0)
オミトロンの仕様で半角スペースがマッチするのは
NUL(0x00) , HT(0x09) , LF(0x0A) , CR(0x0D) , SPC(0x20)
だけで、0xA0は含まれていないのでマッチしなかったっていうわけだ
(<p>( |[%A0]+)</p> )+{1,*}
と書き換えればマッチするはず
-
- 696
- 2018/08/26(日) 00:25:51.73
-
>>695
\sってdomoとかmodoでは使えないんだっけか
-
- 697
- 2018/08/26(日) 00:40:01.31
-
>>696
proxydomoでも\sは使えるけど、それぞれの仕様は
\sは1個以上の空白文字
スペースは0個以上の空白文字
空白文字は上に挙げた5つのことだから
\sに変えたところでマッチはしない
-
- 698
- 2018/08/26(日) 12:56:30.96
-
>695-697
おかげさまで長年の疑問が解決しました。どうもありがとうございます。
「ブロックリストは"[%aa][%ab][%ac]"などのエンコードがされている場合、元の文字列にデコードして、ファイルの文字コードをUTF8として保存してください」
と domo の説明にあるので [%A0] が使えるのかと思ったのですが、これで通りました。
ttp://gosyujin.github.io/2013/08/26/utf8-space-c2a0/
ttps://blog.fenrir-inc.com/jp/2011/06/post_51.html
non-breaking space のほかにも空白に見える文字はいくつかあるようです。
直接関係ありませんが、google 検索結果のフィルタを書いているときにゼロ幅の制御文字が含まれていて対応に苦慮したことを思い出しました。
-
- 699
- 2018/09/05(水) 04:53:48.87
-
いつもお世話になっております。
$FILE()を初めて使ってみたのですが、
[HTTP headers]
Key = "URL: okikae"
In = FALSE
Out = TRUE
Version = ""
Author = ""
Comment = ""
Active = TRUE
Multi = FALSE
URL = "google.co.jp/aaa*"
Bounds = ""
Limit = 1024
Match = "htt●://google.co.jp/(aaa*)\0"
Replace = "$RDIR("
"$FILE(略/u.txt)"
"\0)"
で、u.txtは、httpから始まるURLを一行記載して、Windowsのメモ帳でUTF-8で保存しました。
実際にページを読み込んでみると使えず、
ログウインドウには、h ttpと、2文字目にスペースのようなものが入っていて、これが原因かなという気がしてます。
Webページフィルタのテストウインドウでu.txtを使った場合、スペースらしきものは入ってません。
間違ってる部分のご指摘お願いします。
-
- 700
- 2018/09/05(水) 07:04:34.59
-
>>699
BOMが入ってるせいだな
メモ帳以外のソフトを使ってBOMを付けずに保存してみ
-
- 701
- 2018/09/21(金) 01:03:03.28
-
初めてお世話になります。
$USEPROXYを使って5chだけProxyを通そうと思ったのですが
[HTTP headers]
Key = "URL: Proxy ON (Out)"
In = FALSE
Out = TRUE
Version = ""
Author = ""
Comment = ""
Active = TRUE
Multi = FALSE
URL = "[^/]++.5ch.net|[^/]++.bbspink.com"
Bounds = ""
Limit = 256
Match = ""
Replace = "$USEPROXY(True)"
どうにもうまく動作しないと言うか、
URLがhttpだと動作するのですがhttpsだと動作してくれません。
どこかが間違っているのか、そもそも$USEPROXYはhttpsでは動作しないのか、
どうかご教授よろしくお願いします。
-
- 702
- 699
- 2018/09/21(金) 01:50:26.39
-
すいません自己解決しました。
バイパスリストにhttps全部入れてたのをすっかり忘れてました…。
バイパスリストに例外指定として追記して解決しました。
-
- 703
- 2018/10/12(金) 18:29:26.35
-
よろしくお願いします
とあるページ(hoge.htm)のソースが
1, 2, 3, ...
となっているのに対して
hoge.htm?num=1とアクセスすると
2, 3, ... が残り
hoge.htm?num=2とアクセスすると
3, ... だけが残るようなフィルターを作りたいのですが
Match = "$URL(hoge.htm?num=\1)[#0:\1], "
Replace = ""
上手くいかないです
どう修正すればいいですか
代替のコマンドとかあるのでしょうか
-
- 704
- 2018/10/12(金) 20:43:40.33
-
そこでは変数展開できない
だからそのコードが意図した動作はできないが
ページ内で昇順に並んでるなら
URL = "hoge.htm\?num=\1$SET(num=\1)"
Match = "(^(^$TST(num),))$STOP()|[#0:*],"
こうも書けるだろう
このページを共有する
おすすめワード