Tagged: Talk

0

一些思考

null 回家路上想了下认知功能的底层关系, 也许用机器学习的卷积层做比较会很合适, 同为通过收集元数据进行降维处理(对于人类而言,更加准确的说法是抽象)并归纳,但是值得关注的是一个婴儿认知世界的过程是什么-一般来说,我们根据已知信息来确认未知信息,那么如果这样则无信息或无法辨别和理解的信息(举个例子,克总)要如何处理? 那么这种思考模型大概理解为:元信息的收集->总结特征->验证和确认,每次重复这种循环来增强对这种客体的模型构造(称之为buffer更加合适),再对buffer进行特征提取来使其可信,识别时就能通过这种buffer来对照获取目标的信息。这种认知模型存在一个致命的缺陷-一切认知都是以基础信息为基础,直接导致对新事物的认知总是需要以旧的认知翻译, 那么如果存在一个无法通过直观统觉认知(不反映在输入模块上且无法通过交互进行后天统觉和推理认知)的对象则这将和其不存在没有差别。说到这里就要谈到进行abstract能力,之前在什么地方看到”人脑是一个2亿核2hz的处理器”且这种认知方式有类似ML的算法,那么我们也许可以得出一个有趣的结论:我们无法认知不对感受器具有刺激的存在,那么这种存在没有实际意义甚至可以直接剃掉,那么这将无限接近交互和非交互的界限(也就是存在和虚无的界限),则越接近本质的信息认知难度就越大。某种意义上说进行abstraction的能力本身是黑盒,换句话说我们也可能无法对这进行可靠的演算。#我真喜欢unnoticed theory =D另一方面说回来如果针对单位信息buffer的认知出现差距,大概整个认知体系会崩溃?相对拥有特殊感官的个体来说也许这才是缺陷?越多层数特征越明显且具有代表性,但是为什么这的鲁棒性反而有极大的提升?换句话说事实上认知本身就是最大的认知缺陷,尽管同一客体可以使用不同方式描述,但事实上对客体进行归类本身就具有极大的不确认性,在出现无法理解的对象前证伪的可能性基本上不存在,那么这种buffer是否依然具有正确性呢?显然正确性理论上依然留存,那么这种正确性依然局限于此前的认知本身,如果一个新的感受器被加入,那么这的权重将会明显增大且变得重要,不确定性如果从这的基础出现,那么这与总体的感官重建有什么区别?换句话说如果这存在一个错误,那么在这种循环内建造的认知模型本身是否是错误的?当然在这种情况下”错误”事实上不确定,因为初始的buffer必定是默认正确的,那么后期的更改事实上也必然基于初始buffer,那么如果这种cognition flaw出现在一个无法被大部分样本所纠正的情况下,这的结果应该是灾难性的。后设认知部分意义上弥补了这的误差,但是这首先要求一个基础的认知架构-那么不难发现,如果这是错误的,认知结果也将是错误的,那么每个个体的认知其实不同,某种意义上大部分共识也将不复存在。从这种方向上看,语言事实上承担着共识之协调作用,但是这种结构中一个同步的体系本身就存在误差,而且某些情况下这种误差比原来的误差更加致命,由于不存在同步和复调整,这种错误的认知就将持续在每一个个体上发生且往往为基础而致命的部分(比如天是蓝色的,但我们事实上可以假设每个个体看见的蓝色rgb都不相同,但是它确实是蓝色),那么这种认知结构下的大部分经验也将不具有可确定性,这种abstract的结果事实上反而成为了一个正确的认知-Do you see what I see? 讲到这里突然有几种思路,谁要一起做PoC(看起来是职业病)1.修改单位个体的无意识并且进行持续的诱导来修改基础认知2.利用模糊的测试样本进行欺骗来获得不同的输出(老套路了)3.如果特征足够,这种训练方式应该来不及修改下训练结果4.某种意义上说抽象度越高,容错值也就越小,一个易于认知的对象应该更加容易被修改和攻破。 最近正在考虑用ml驱动的celluar automata实现可能性,没准对al是个不错的思路,有兴趣的可以一起搞 #不保证正确性因为大半夜困得要命,有任何想法请留言,别打我(

Editor Picks