编程中的对象的表示。 - 页 16

 
Реter Konow #:

目标是在一个共同的Object模型基础上运行程序自动合成。

这可能就是所谓的遗传编程。在那里,你也不能没有BNF语法或树(基本上是一回事)形式的明确语言描述。

 
Aleksey Nikolayev #:

这可能就是所谓的遗传编程。在这里,你也不能没有以BNF语法或树的形式对语言进行明确的描述(这基本上是同一件事)。

今天,我将尝试描述从一个像素 "原环境 "中合成一个简单标签的步骤,以及其顺序复杂化的逐步方案。

增强的。

目标是确定软件对象的复杂化模式,以实现其后续的自动化。

 

第4.2部分

这部分概念涉及所谓的"困难模式"(又称"发展模式"),据说是隐藏在潜意识中的方案,作为组装事物的 "指令"。该方案的制定和实施很可能 会解锁一个新的算法 "圣杯",其形式是自动程序合成和下一代人工智能引擎。这场比赛是值得一试的。

按照传统,让我们宣布原始论文。

  • 所有对象都只存在于环境中物体 "本身 "生命只有作为 "博物馆作品 "才有意义 思考对象,我们必须 考虑到它"出生"和"生命活动"的环境,即对象环境,它在其中互动并履行其程序(或功能)。
  • 只有在环境中才有可能发展。没有对象在自身中发展和演变,从环境中 "提取 "出来的对象会失去互动性,因为它的事件模型 不再接收信号,它的功能(除了循环的功能)也停止了。
  • 对象是通过结构化而 "诞生 "的。最 初的 "材料 "要么是(1)原环境中的一组混乱的原粒子,要么 是(2)以前组装的功能系统部件的分级分类 "菜单",在这个阶段将被组织成下一个复杂程度的新"元结构"。这取决于正在创建的对象和可用的环境。
  • 正在创建的几代对象的复杂性是交错的。在一个简单的原始对象环境中,不可能通过跳过中等复杂度对象的工程阶段来建立一个超级复杂的系统。这一规则是由一个简单的事实决定的,即物体是由普通的"部件 "构建的,从最简单的系统到最复杂的系统,其复杂性的鸿沟不允许 "跨过 "组装中等复杂性的 "部件 "的阶段。
  • 结构化对象的效率取决于 "母体 "环境的组织效率。换句话说,通过复制工作系统的部分来构建对象,比从同一系统的分类中建立的分类内容中组装对象的效率要低。这意味着,在我们开始用某样东西 来构造某样 东西之前,应该先把它拆开,进行分类,以使新的东西更容易组装起来。
  • 对象结构化的第一个关键机制是 "继承"--即一个对象的参数或功能被另一个对象完全或部分继承的方法。在这一点上,对于构建新的Object(如果它不是一个完整的副本)来说,更有效的是使用 "空白"(模板),在这些模板中,功能/参数/值被进一步重新定义为每个特定的Object。继承应设置为 "流",并从具体对象中抽象出来。继承应该基于一些分类模型,随着每个新对象的构建,由新模板补充。在这种情况下,这样的模型将作为结构化的理想基础,实际上是一个理想的开发环境。 继承 机制实现了进化发展的原则之一。
  • 对象结构化的第二个关键机制是 "调整" --一种选择适合其任务的对象参数值的方法。使用"遗传优化"的原则可能是有效的。应该记住,任何参数值在对象处的有效性是由其环境决定的,因此,在测试过程中,它应该给予反馈。
  • 对象结构化的第三个关键机制是 "选择" --在测试过程中,为了解决对象存在的目标问题,在其副本-变体(功能、参数或值不同)中选择一个对象实例的方法。在这个过程中,环境也必须提供反馈 选择机制也贯彻了进化发展的原则之一


接下来(在下一部分)我们将讨论标签,但值得铭记的是上述论点,因为它们毫不含糊地暗示了 一些 对软件对象的 "自动合成 "问题的答案。这意味着,物体的存在被系统和手段的 诞生、存在发展 的严格规则所锁定,我们不能 "随便 "创造,希望得到结果。已经很明显的是,实现程序化自动合成的可能方法是有限的。

下一部分,我们将考虑 "出生环境"和在将非结构化的像素集转化为交互式软件工具的过程中,Label的"代码丰富化"阶段

 

长期以来,人们对所谓 "人工智能 "的威胁的科普问题很感兴趣。

  • 机器人可以自己 发明和建造其他机器人吗?
  • 计算机能否变得有自我意识,如果是这样,那么它将如何与人类发生联系?
  • 人类的 "弱小 "心灵是否有机会抵御人工神经元网的计算能力,而人工神经元网将GM们打成了小学生?
  • 机器 "将为我们准备什么样的命运?
  • 以此类推...

科幻小说家们,大部分都倾向于可怕的预言,并描绘了关于无灵魂的计算和机械力量战胜灰心和不知所措的 "侦探 "的令人不寒而栗的故事。当机器起义理论的流行浪潮蓄势待发时,科学家们却意见分歧。一些人微笑着怀疑地称其为恐吓,其他人则严肃地宣称人工智能将是我们最后的发明。一些人相信我们和计算机将和平共处,另一些人(比如那些梦想去火星的非常容易受影响的营销企业家)则被冲昏了头脑,他们开始像先知一样呼喊着思考不可避免的结局,通过互联网和电视向大众讲话。与此同时,IT公司继续积极地、毫不掩饰地朝着所谓 "技术奇点 "的 "不祥 "深渊发展,在这个深渊之外,我们的生活将发生巨大变化,我们将堕入不可知的世界。符合逻辑的是,数字意识的出现取决于某些天才程序员在 "邪恶 "公司办公室尘土飞扬的办公桌后面度过他们的工作日,他们应该比其他人更清楚是否有理由感到害怕。

意识到许多对人工智能的恐惧是由普及者创造的,以加热市场并刺激主题产品的销售--游戏、书籍、电影(以及......脑芯片),我仍然想了解代码如何真正威胁到人类,以及是否有可能在原则上编写它?

答案,即使是一般性的,也是非常困难的。首先,人们必须对虚构的东西进行折算,并提出观点。

  • 在软件发展和日益复杂的趋势下,是否应该出现一种程序,能够自行发明其他程序或机制?
  • 该程序是否能够创建另一个比它更复杂的程序?
  • 能否制定和编写程序/机制的 "复杂化算法",没有这种算法就不可能创建这样的程序?

我们不要厚着脸皮先回答,先问问《进化论》吧。它不具备复杂的算法吗?难道它不是已经使用了几亿年了吗?我们的生态系统不是证明了进化论拥有尚未达到的生命圣杯 吗?

现在,让我们来看看人类的创造。我们不是在不断地使我们的技术复杂化吗?我们不是在创造更加复杂、多样和多功能的设备吗?我们怎么知道如何将任何事情复杂化和改进?我们不是有和进化论一样的复杂算法吗?难道进化论没有 "把它放在我们身上 "吗?因此,也许进化的复杂化机制和我们用来制造更复杂的电话/电脑和凳子的机制是一体的?

基于这种逻辑,我们有一个先验的复杂化算法,但我们要么不知道,要么 无法清楚地表达。


后记。

我决定用这一部分来解释我的研究的意义。我将在下一部分继续进行逐步的分析。


 

一个很好的哲学话题,遗憾的是我现在无法详细回答,只能简单说说。

人工意识意味着(至少在理论推理的层面上)"人工 "意志的可能性也是如此,很明显,当我们到了创造成熟的集成电路来赋予新的机器人的时候,我们就会摆脱意志,或者使它们成为一个将专门以服务为目的的意志,我们将得到这样一个智能执行者自闭症,而不是像佩列文的最后一篇文章中那样的成熟的精神自主人格(如果我们不考虑对深层人的明显提及),所以天网终结者般的机器叛乱根本不会发生。

另一个假设是,随着系统(IS)变得更加复杂,意志和自主性的发展确实不可避免,然后出现像底特律的情景。成为人类》中,当机器人在人性方面甚至超过了人类本身,或者像《赛博朋克2077》中,在德拉曼出租车公司与智能机器的故事情节中,在这种情况下,要么需要对智能机器的自我发展进行人工遏制,要么存在包容和承认机器人权利的伦理问题,但事实上,伦理问题在IP创造阶段就出现了:创造一个可能会因被关在生产设施的铁牢中而遭受认识的生命,这样做能被接受吗?- 然而,今天生物人的诞生也存在同样的问题,只是没有人问孩子们是否愿意生活在这个世界上。

对于系统的自我复杂化问题:显然需要某种非图灵自动机模型来充分解释心理的出现和自我发展,一般来说,没有中央处理器,如记忆计算,当然,图灵完备性意味着人们可以用足够强大的机器来模拟绝对任何环境,包括为什么不从胚胎开始用全环境模拟人类NS,但这可能不是非常有效的方法。

 
transcendreamer #:

一个很好的哲学话题,遗憾的是我现在不能详细回答,只能简单说说。

人工意识意味着(至少在理论推理的层面上)"人工 "意志的可能性也是如此,很明显,当我们到了创造成熟的集成电路来赋予新的机器人的时候,我们就会摆脱意志,或者使它们成为一个将专门以服务为目的的意志,我们将得到这样一个智能执行者自闭症,而不是像佩列文的最后一篇文章中那样的成熟的精神自主人格(如果我们不考虑对深层人的明显提及),所以天网终结者般的机器叛乱根本不会发生。

另一个假设是,随着系统(IS)变得更加复杂,意志和自主性的发展确实不可避免,然后出现像底特律的情景。成为人类》中,当机器人在人性方面甚至超过了人类本身,或者像《赛博朋克2077》中,在德拉曼出租车公司与智能机器的故事情节中,在这种情况下,要么需要对智能机器的自我发展进行人工遏制,要么存在包容和承认机器人权利的伦理问题,但事实上,伦理问题在IP创造阶段就出现了:创造一个可能会因被关在生产设施的铁牢中而遭受认识的生命,这样做能被接受吗?- 然而,今天生物人的诞生也存在同样的问题,只是没有人问孩子们是否愿意生活在这个世界上。

对于系统的自我复杂性问题:显然需要某种非图灵自动机模型来充分解释心理的起源和自我发展,一般来说,没有中央处理器,如记忆计算,当然,图灵完备性假设有可能通过一个足够强大的机器来模拟绝对任何环境,包括为什么不从胚胎开始模拟人类NS的完整环境,但这可能不是非常有效的方法。

我认为最好从一个简单的系统开始,然后走向复杂,分析每个步骤。因此,我决定以Label为基础,看它如何演变成越来越复杂的物体。要分析代码,我们将其添加到其中,并检查在我们的行动中是否有任何计划、重复的模式。

对有意识的复杂化过程的描述必须伴随着纲领性和哲学性的概念,以归纳和寻找我们自己所遵守的规则。也许我们会了解到理论上什么代码可以执行类似的动作。

 

我们必须首先回答什么是意识的问题。到目前为止,它不是很好,在现代哲学中甚至有这样一个术语--"意识的困难问题"。

在我看来,如果有任何方法可以解决这个问题,那么很可能会以维特根斯坦的日常语言哲学的方式找到。所以我继续坚持对语言进行建设性的形式化。从本质上讲,我们需要为人类与计算机的交流语言做的事情,与通过发明lobban或ifcuil为人类之间的交流语言做的事情大致相同。

 
Aleksey Nikolayev #:

我们必须首先回答什么是意识的问题。到目前为止,它不是很好,在现代哲学中甚至有这样一个术语--"意识的困难问题"。

在我看来,如果有任何方法可以解决这个问题,那么很可能会以维特根斯坦的日常语言哲学的方式找到。所以我继续坚持对语言进行建设性的形式化。从本质上讲,我们需要为人类与计算机的交流语言做的事情,与通过发明loban或ifcuil 为人类之间的交流语言做的事情大致相同。

72个案例,24个新的特殊案例,非线性书写系统,矩阵语法,形态语法,boustrophedon,以及特殊的语音学--这就是最酷的交易教派所需要的东西(这样,切克派和共济会就不能偷走圣杯)。

 
Aleksey Nikolayev #:

我们必须首先回答什么是意识的问题。 到目前为止,它不是很好,在现代哲学中甚至有这样一个术语--"意识的困难问题"。

在我看来,如果有任何方法可以解决这个问题,那么很可能会以维特根斯坦的日常语言哲学的方式找到。所以我继续坚持对语言进行建设性的形式化。从本质上讲,人们应该为人类与计算机的交流语言做同样的事情,即通过发明loban或ifcuil为人类之间的交流语言做同样的事情。

我不同意这种观点。拆开来看,意识是一个破损的、三次扭曲的、堆满了一千吨情绪垃圾的、勉强运作的、被腐蚀的物体'处理器'。我们只需要把系统处理和复杂化机制弄出来,剩下的就留给思想家和精神病学家吧)。

 
Реter Konow #:

我不同意这种观点。拆开来看,意识是一个破损的、三次扭曲的、堆满了一千吨情绪垃圾的、勉强运作的、被腐蚀的物体'处理器'。我们只需要把系统处理和复杂化机制弄出来,剩下的就留给思想家和精神病学家吧)。

听起来像是一个建议,让它的湿气从水里出来)