Author: nimda

0

WTS-WAF Bypass technical stuff

你们要的干货(我知道已经鸽了一天了) 和一位表哥撸站时遇到wts-waf,在这之前这破玩意也恶心我很久了。今天正巧有时间,记一下bypass方式。 我一直在好奇这吊玩意能从哪下到,最后决定直接随手找个站演示算了。 ‘ union select 拦截 ‘ union%20%0aselect 不拦截 ‘ union%20%0aselect 123 不拦截‘ union%20%0aselect 123 from 不拦截‘...

0

另外的一些思考

我思故我在。 但是我一定存在吗?首先从直观角度看,我思故我在无法被证伪,但某种意义上,证实依然是严峻的问题。首先我们需要确定思考者是否为我,那么如何定义我?其次我们需要定义什么是思考接下来我思代表我在的确定性:我是否”在”? 首先我们需要定义我。 我可以被定义为一个直观统觉,也可定义为形而上的”我”,那么这的问题则变为自由意志的存在。 某种意义上说,这种存在本身代表主观能动性,即我作为信息处理系统的自主决策方式,那么生物性的我则需要与心理意义上的我分离,那么我的思考可以单独定义为电信号的传输。那么我是如何被认知的?显然我们首先需要确认我在我的统觉里是什么。我代表的是我外延和内在的统一,那么我的外延如果去除,我依然是我,则我可以被精简为思维本身,换句话说我的本质是思考。如果思考所承载的介质可以替换,那么任何客体都可能有自我意识。不管看起来还是实际上都很不靠谱。那么这种思考的本质就是对于外界信息的处理和分析,那么计算机有自我意识吗?我是维持基因存在的工具吗?程序诸计算机与我诸我的身体的根本区别是什么?不难回答,我是基因维持自身存在的工具,且并无太大区别。那么既然图灵机不具有特异性,我不具有特异性吗?无法确认。如果我不具有特异性,那么认知模型将相似,尽管经验表明如此,但我的认知模型将使我的认知能力被局限在直观统觉内,那么我无法认知其它个体的存在,则我们可以理解为只有我自己是确认的。那么我具有主观层面的特异性。 那么我可以被定义为思维和行为的并集,则我本身可以被理解为一个统一且自洽的思维模型。 但我本身并不出现在一个确定的客体中,即我的存在性不可被确认,尽管心物二元论已经被证伪且我必然伴随一个空间层面上的存在,但其先后顺序依然是严重的问题。从生理层面上来看,我们的一切认知都基于电信号,且这种联系无法被归类,则某种角度上我的存在其实值得商榷。那么我们的主要问题依然是我思和我的关联。我思本身规定我为主体,但我本身为思维,则我不具备外延层面的特异性。 综上所述,思维可以被定义为对外界刺激和信息作出反应并综合这些信息的行为,那么接下来的问题就是我在。 尽管本体论角度的存在依然不可被确认,但如果将存在的范围扩大至一切可认知的客体,证明我的存在就相对来说简单的多。 尽管这样,如何确定我的客体和认知层面上的我依然是严重的问题,即我的存在不代表我的存在,一个新生婴儿的我思可能并无其的存在。 则某种意义上,我思与我在可能并无代表性。 笨蛋谷歌输入法延迟吊高,先鸽了每天早上一点左右都会困得要死呢 明天大概会post一些干货?

0

一些思考

null 回家路上想了下认知功能的底层关系, 也许用机器学习的卷积层做比较会很合适, 同为通过收集元数据进行降维处理(对于人类而言,更加准确的说法是抽象)并归纳,但是值得关注的是一个婴儿认知世界的过程是什么-一般来说,我们根据已知信息来确认未知信息,那么如果这样则无信息或无法辨别和理解的信息(举个例子,克总)要如何处理? 那么这种思考模型大概理解为:元信息的收集->总结特征->验证和确认,每次重复这种循环来增强对这种客体的模型构造(称之为buffer更加合适),再对buffer进行特征提取来使其可信,识别时就能通过这种buffer来对照获取目标的信息。这种认知模型存在一个致命的缺陷-一切认知都是以基础信息为基础,直接导致对新事物的认知总是需要以旧的认知翻译, 那么如果存在一个无法通过直观统觉认知(不反映在输入模块上且无法通过交互进行后天统觉和推理认知)的对象则这将和其不存在没有差别。说到这里就要谈到进行abstract能力,之前在什么地方看到”人脑是一个2亿核2hz的处理器”且这种认知方式有类似ML的算法,那么我们也许可以得出一个有趣的结论:我们无法认知不对感受器具有刺激的存在,那么这种存在没有实际意义甚至可以直接剃掉,那么这将无限接近交互和非交互的界限(也就是存在和虚无的界限),则越接近本质的信息认知难度就越大。某种意义上说进行abstraction的能力本身是黑盒,换句话说我们也可能无法对这进行可靠的演算。#我真喜欢unnoticed theory =D另一方面说回来如果针对单位信息buffer的认知出现差距,大概整个认知体系会崩溃?相对拥有特殊感官的个体来说也许这才是缺陷?越多层数特征越明显且具有代表性,但是为什么这的鲁棒性反而有极大的提升?换句话说事实上认知本身就是最大的认知缺陷,尽管同一客体可以使用不同方式描述,但事实上对客体进行归类本身就具有极大的不确认性,在出现无法理解的对象前证伪的可能性基本上不存在,那么这种buffer是否依然具有正确性呢?显然正确性理论上依然留存,那么这种正确性依然局限于此前的认知本身,如果一个新的感受器被加入,那么这的权重将会明显增大且变得重要,不确定性如果从这的基础出现,那么这与总体的感官重建有什么区别?换句话说如果这存在一个错误,那么在这种循环内建造的认知模型本身是否是错误的?当然在这种情况下”错误”事实上不确定,因为初始的buffer必定是默认正确的,那么后期的更改事实上也必然基于初始buffer,那么如果这种cognition flaw出现在一个无法被大部分样本所纠正的情况下,这的结果应该是灾难性的。后设认知部分意义上弥补了这的误差,但是这首先要求一个基础的认知架构-那么不难发现,如果这是错误的,认知结果也将是错误的,那么每个个体的认知其实不同,某种意义上大部分共识也将不复存在。从这种方向上看,语言事实上承担着共识之协调作用,但是这种结构中一个同步的体系本身就存在误差,而且某些情况下这种误差比原来的误差更加致命,由于不存在同步和复调整,这种错误的认知就将持续在每一个个体上发生且往往为基础而致命的部分(比如天是蓝色的,但我们事实上可以假设每个个体看见的蓝色rgb都不相同,但是它确实是蓝色),那么这种认知结构下的大部分经验也将不具有可确定性,这种abstract的结果事实上反而成为了一个正确的认知-Do you see what I see? 讲到这里突然有几种思路,谁要一起做PoC(看起来是职业病)1.修改单位个体的无意识并且进行持续的诱导来修改基础认知2.利用模糊的测试样本进行欺骗来获得不同的输出(老套路了)3.如果特征足够,这种训练方式应该来不及修改下训练结果4.某种意义上说抽象度越高,容错值也就越小,一个易于认知的对象应该更加容易被修改和攻破。 最近正在考虑用ml驱动的celluar automata实现可能性,没准对al是个不错的思路,有兴趣的可以一起搞 #不保证正确性因为大半夜困得要命,有任何想法请留言,别打我(

Editor Picks