-
- 1
- 2014/11/20(木) 16:04:08.07
-
ProxydomoはProxomitronのクローンソフトProximodoを基にして作られたプロクシフィルタリングソフトです
---- 配布・公式サイト ----
amate/Proxydomo
https://github.com/amate/Proxydomo
lafe @ ウィキ - Proxydomo
http://www31.atwiki.jp/lafe/pages/37.html
---- 関連スレ ----
【前スレ】Proxomitron Part 31
http://peace.2ch.net/test/read.cgi/win/1328625684/
Proxomitron フィルター作成スレッド Part15
http://anago.2ch.net/test/read.cgi/software/1383031170/
【Proxomitron】 proximodo 【後継】
http://pc11.2ch.net/test/read.cgi/software/1110563904/
-
- 147
- 2015/11/02(月) 10:27:32.45
-
httpsのフィルタリングがしたくて、
Proxomitronから移行
httpsの方のURL履歴が見たいが為に、https接続に手を出してしまいました
ログインページとかを、うっかりフィルタリングしてしまいそうで、落ち着かない…
でも、便利…
良いソフトをありがとうございます
-
- 148
- 2015/11/03(火) 15:43:25.87
-
\wの挙動がomitronとちがくない?
-
- 149
- 2015/11/03(火) 16:20:38.22
-
もう1個
リスト内で、
#日本語文字列
のようにコメントアウトしてるとそれ以降の行が全て無視される(オミトロンだと平気だった
バグ報告はここでいいのかな
-
- 150
- 2015/11/03(火) 16:48:02.11
-
>>148自己レス
例えばマッチングパターンで
<([^a]\w)\1*
とした時に、
<script src=~~
を置換すると、Omitronの場合は\1で script という文字列を返すがdomoだと s という文字列を返す
一応、<([^a][^ ]+)\1*とすれば同値な代用可能
-
- 151
- 2015/11/03(火) 23:12:17.13
-
>>149事故レス連投すみません
これはリストUTF8じゃないといけなかったって話なのでなんでもないです
-
- 152
- 2015/11/05(木) 03:37:01.72
-
v1.69
-
- 153
- 2015/11/05(木) 16:10:51.57
-
基本的なことなんでしょうが教えて下さい
このフィルタはこのURL『以外』で使いたい、という除外リストはどう書くのがいいんでしょう。
yahoo.co.jpにはフィルタを適用したくない場合、
~yahoo.co.jp/
*/
この書き方だと、yahoo.co.jpは確かにフィルタから除外されますが、
yahoo.co.jp/hogeでは適用されてしまいます。
~yahoo.co.jp/*としても効果がありません。
-
- 154
- 2015/11/06(金) 23:22:06.36
-
$URL使うとか
-
- 155
- 2015/11/07(土) 07:01:59.04
-
>>153
modoは知らないが、omitronではその書き方でも意図どおりに動くはず
リストアイテムは先頭一致だから
書き方はまあ好みなんだけど、俺なら
除外アイテムではなく通常アイテムとしてリストに並べて、 (^$LST(hoge)) と否定形で参照するね
*/で全部引っ掛けてから除外アイテムで弾くってのは少なくともomitronでは非効率だから
-
- 156
- 2015/11/07(土) 12:27:17.73
-
~←これ機能してなくない?
ほんのいくつかの限られたサイトだけSSLフィルタリングしたいんだけどできなくて困ってる
-
- 157
- 2015/11/07(土) 12:40:04.34
-
http://www31.atwiki.jp/lafe/pages/39.html
例外指定は実装されていません
実装してないってよ
限られたサイトならURLパターンに書けばいいんじゃないか
-
- 158
- 2015/11/07(土) 19:30:03.34
-
未実装だったのか ありがと
Bypassリストに
$URL(https://(^$LST(unBypass)))
として解決
-
- 159
- 2015/11/09(月) 23:18:39.98
-
Match: "$LST(list)"
list.txt: "(www.|)proxy.com/"
対象1: "proxydomo.com"
対象2: "www.proxydomo.com"
結果: 1、2共にマッチ
-
- 160
- 2015/11/09(月) 23:24:15.51
-
訂正
対象1: "proxydomo.com/"
対象2: "www.proxydomo.com/"
-
- 161
- 2015/11/10(火) 11:04:36.66
-
Match = "(^a)\0"
Replace = "x"
対象 = "abc"
結果 & \0の中身
Proxomitron = "ax" \0="bc"
Proxydomo = "axbxc" \0=空
-
- 162
- 2015/11/10(火) 12:44:47.06
-
wgetでsslプロキシにProxydomo通すとエラーになる
2種類の暗号化があるけどどっち使ってもダメ
curlはうまくいくかまだ試してないけど
どっちもWindowsの移植版が複数あって一概には言えないけど
-
- 163
- 2015/11/10(火) 14:02:51.26
-
>>161
けっこう挙動が違うのな
omitronからdomoに乗り換えようかと思っていたが迷うな
-
- 165
- 2015/11/10(火) 14:35:30.53
-
(www|).proxy.com/
なら問題なかった
-
- 166
- 2015/11/10(火) 19:43:06.74
-
早速修正されたけど私の不具合はそのままかい
-
- 167
- 2015/11/10(火) 19:55:42.45
-
firefoxにてオレオレ証明書食わせてない状態でSSLサイトをバイパスしようとすると
omitronでは証明書エラー出ないでバイパスアクセスできるけど
domoはバイパスリストに書いても本体のバイパス設定にしても証明書エラーが出る
-
- 168
- 2015/11/10(火) 19:56:42.27
-
v1.70
@amate amate released this Nov 10, 2015
・ブロックリストに"(pattern)host.com/"などがあったとき、前方の(pattern)が全体一致ではなく前方一致でもマッチしてしまうバグを修正
・"(^a)\0"は"(^a)(*)\0"扱いにするようにした (proxomitron互換に)
ほんといつも早いね
ありがとうございます
-
- 169
- 2015/11/11(水) 09:12:46.15
-
1.71乙です
そろそろ完全移行できそうになってきたな
あとはリストの例外指定に対応してもらえたら最高に嬉しい
-
- 170
- 2015/11/12(木) 00:01:07.64
-
一部のインターネットラジオが聴けません
e.g. http://radio.nolife-radio.com:8000
新しいリクエストを受信しました
リクエストが完了しました
がものすごい勢いで永久ループ
omitronで見るとresponseヘッダが200 (No Headers)なので、それが原因?
-
- 171
- 2015/11/12(木) 03:42:56.89
-
そういうのってwmpとかで聞くんじゃないの?
-
- 172
- 2015/11/13(金) 00:56:29.26
-
すべてのログが3重に表示されるという謎の現象が起きた
新しいリクエストを受信しました
新しいリクエストを受信しました
新しいリクエストを受信しました
#1 TextMatch [filter]
#1 TextMatch [filter]
#1 TextMatch [filter]
#1 GET
#1 GET
#1 GET
#1 200 OK
#1 200 OK
#1 200 OK
リクエストが完了しました
リクエストが完了しました
リクエストが完了しました
みたいな感じ
3重だけじゃなくて2〜4重で変動してた
再起動したら直って再現性不明
-
- 173
- 2015/11/14(土) 12:07:49.88
-
Match = "$LST(list)"
list.txt = "https+://www.hoge.com/"
対象 = "http://www.hoge.com/"
結果 = マッチなし
"http(s|)://www.hoge.com/" これならマッチする
"http://w+.hoge.com/" これもマッチ
たぶんだけど、リストの各行先頭から7文字以内で+使うとダメっぽい
-
- 174
- 2015/11/15(日) 12:34:04.99
-
1.72
修正乙です
-
- 175
- 2015/11/17(火) 11:44:48.03
-
A. <div></div>
B. <DIV></DIV>
1. <(div)\1></$TST(\1)>
2. <(DIV)\1></$TST(\1)>
→Aにだけマッチ
3. $SET(1=div)<$TST(\1)></$TST(\1)>
→AB共にマッチ
4. $SET(1=DIV)<$TST(\1)></$TST(\1)>
→マッチなし
-
- 176
- 2015/11/17(火) 21:41:49.78
-
修正乙です
ところで、Proxomitronの時は$SETで代入した\n変数は
その検索内では使えない仕様だったと思うけど(>>175の3.4は[No Match]になる)
これができるようになったのは改善ってことでいいのかな?
-
- 177
- 2015/11/18(水) 00:19:40.96
-
v1.73
来てた
-
- 178
- 2015/11/18(水) 00:28:49.76
-
$NEST(<(div|span)\1,</$TST(\1)>)
この検索表現ができるということを初めて知った。複数に分けてたフィルタ、ある程度まとめられそうだ。
-
- 179
- 2015/11/18(水) 00:54:28.13
-
それたしか$INESTにしないと誤爆るんじゃなかったかな
-
- 180
- 2015/11/18(水) 09:01:42.71
-
>>178なら大丈夫でしょ
-
- 181
- 2015/11/18(水) 09:46:00.77
-
大丈夫じゃないだろ
divの中にspanがきたらもうdivの対になる閉じタグを永遠に見つけられない
<div>
<div><span></span></div>
<div></div>
</div>
こんな場合は対にならない閉じタグにマッチしてしまう
-
- 182
- 2015/11/18(水) 10:14:25.11
-
ああそうか\1が上書きされちゃうからダメか
-
- 183
- 2015/11/18(水) 11:31:43.64
-
これバイパスしてても通知領域のアイコン黒くならないんだけど
仕様?
-
- 184
- 2015/11/18(水) 12:32:19.69
-
仕様
-
- 185
- 2015/11/18(水) 18:42:23.67
-
あなた達がProxomitron、ProximodoからProxydomoへ乗り換えた理由は何ですか?
-
- 186
- 2015/11/19(木) 10:18:26.30
-
<div class=
-
- 187
- 2015/11/19(木) 10:19:27.89
-
すみません、とちゅうで切れてしまいました。
<div class="match">
<div></div>
</div>
マッチングパターン:$NEST(<div[^>]++match,</div>)
これだと、1行目のdivから2行目の/divまででマッチしてしまうんですが書き方間違ってます?
1行目と3行目でマッチさせたいんですけど
-
- 188
- 2015/11/19(木) 10:35:18.67
-
$NEST(<div,[^>]++match*,</div>)
こうすべき
-
- 189
- 2015/11/19(木) 10:56:07.40
-
>>188
あぁ、「<div match>」のタグを探していたので、2行目の<div>は無視されてたんですね。
理解しました、感謝。
-
- 190
- 2015/11/19(木) 11:17:11.74
-
$INESTがまさにそういう状況のためにあるものだ
<div match>$INEST(<div,</div>)</div>
-
- 191
- 2015/11/21(土) 01:38:46.41
-
(^(^<div\sclass=$AV(match)))$NEST(<div,</div>)
-
- 192
- 2015/11/22(日) 08:09:56.69
-
要望失礼します
ログのRecent URLをコピーするとき、今はCtrl+Cを使っているのですが、
この作業を簡単にできないでしょうか
(例えば右クリック→コピーとか
複数選択したURLを改行でリストっぽい形式にして一気にクリップボードに登録とかもできたらいいのですが
(目的
画像や動画のURLを抽出してコピー
ご検討よろしくお願いします
-
- 193
- 2015/11/22(日) 11:06:32.26
-
画像や動画のURLを$LOGするフィルタ書く
ログ表示をフィルタイベントだけにする
Ctrl+Aでコピーする
余計な行をなんとかする
解決
-
- 194
- 2015/11/22(日) 11:26:46.46
-
画像や動画のURLを$ADDLSTするフィルタ書くんじゃだめなのか?
-
- 195
- 2015/11/22(日) 11:45:25.70
-
>>192
そのまんま右クリックでURLをクリップボードへコピーできるじゃん
-
- 196
- 2015/11/28(土) 00:28:16.09
-
URLコマンドでhttpsが使えるようになるまで時間かかりますかね
-
- 197
- 2015/11/28(土) 00:50:15.09
-
どういうこと?SSLページでもdbugとか普通にできるけど
それよりも、\xdbug.にリダイレクトしたとき$URLが一致しなくなるのがたまに不便に感じる
URLパターン欄では問題ないというかむしろ*dbug.とか付けると逆にマッチしなくなるのもチグハグだし
このページを共有する
おすすめワード