• 在上篇 Java 到 Scala 系列中,我想你或多或少在语言特性上对我们已经知道了先来看看 Java 对于单例模式的实现:
  • 兄弟连教育建议,用户在考虑培训周期时要切实结合自身目前所掌握的区块链知识的多少、培训的目的是简单的认知提升还是借此高薪就业等等。兄弟连Go全栈与课程体系设计架构包括了区块链的基础语言Go语言、区块链后端技术体系、区块链公链、区块链分布式应用开发等内容讲解,以及到最后的面试指导和项目实战。课程由清华微软谷歌名师团队精心打造,历时半年时间共同研发而出。上次用Scala写了个爬虫。最近在闲工夫之时,学习Go语言,便用Go移植了那个用Scala写的爬虫,代码如下:
  • 本文作者是一位软件工程师,他对20位开发人员和数据科学家使用Apache Kafka的方式进行了最大限度得深入研究,最终将生产实践环节需要注意的问题总结为本文所列的20条建议。Apache Kafka是一个广受欢迎的分布式流媒体平台,New Relic、Uber以及Square等数千家公司都在使用它构建可扩展、高吞吐量、可靠的实时流媒体系统。例如,New Relic的Kafka集群每秒处理超过1500万条消息,总数据速率接近1 Tbps。Kafka在应用程序开发人员和数据科学家中非常受欢迎,因为它极大简化
  • 终于发现了最适合我的编程语言做大数据/机器学习方面的工作多年. 最为熟悉 C++, Matlab/R/Python/Java/Scala 都用过.但每种语言的体验总觉得有缺憾.一个理念: 如果不是语言专家, 那么编程语言, 仅是实现想法的工具. 更为重要的事情如何快速准确地实现功能和想法, 而不是消耗在工具本身.
  • Akka 2.5.16 发布了,这是 Akka 2.5 系列的最新补丁版本。它包含一个重要的安全修复程序,该漏洞会影响 Akka 系统,该系统使用带有 TLS 的 Akka Remoting/Cluster,并将 TLS 配置 random-number-generator 为 AES128CounterSecureRNG 或 AES256CounterSecureRNG。如果启用了这些随机数生成器,攻击者将能够对通信进行破坏。有关详细信息,请参阅建议订阅
  • 其实在写这篇文章之前,我思绪万千,迟迟不能落笔,总想着自己会不会遗漏了某个知识点,或者有讲得不太那么准确的地方,但是后来我想明白了,学习一样东西,最重要的并不是要了解它的每一个细节,而是要了解它的核心思想。如果你能够理解上面Yison讲的那句话,我想你或许也就掌握了其实,
  • 整理自《架构解密从分布式到微服务》第七章——聊聊分布式计算.做了相应补充和修改。不管是网络、内存、还是存储的分布式,它们最终目的都是为了实现计算的分布式:数据在各个计算机节点上流动,同时各个计算机节点都能以某种方式访问共享数据,最终分布式计算后的输出结果被持久化存储和输出。分布式作为分布式系统里最重要的一个能力和目标,也是大数据系统的关技术之一。经过多年的发展与演进,目前业界已经存在很多成熟的分布式计算相关的开源编程框架和平台供我们选择。Carl Hewitt于1970年发明Actor模型,当时Actor
  • 详见,《在不同场景下,Tips: Full code is
  • scala> val v = Vector(1, 2, 3, 4)v: scala.collection.immutable.Vector[Int] = Vector(1, 2, 3, 4)scala> val v2 = v.map(n => n * 2)
  • 在skinny.validator框架中,提供如下的一种DSL调用方式来验证Map的值:通过这种方式既可以将对应的DSL方法进行归类,又可以很好地支持DSL的编码形式,算是DSL的一种最佳实践。
  • 本文来自云+社区翻译社,作者阿小庆构建微服务并不容易,特别是当微服务变得越来越多时,而且好多微服务可能由不同的团队提供和维护,这些微服务彼此交互并且变化很快。文档、团队交互和测试是获得成功的三大法宝,但是如果用错误的方式进行,它们会产生更多的复杂性,而不是一种优势。
  • 作者 | 小牛Java 工程师,关注服务端技术
  • Akka Persistence是一个相当不错的事件溯源EventSourcing实现。当您选择EventSourcing架构时,自然也将采用CQRS方法。因为你不希望将读查询等操作变成持久写操作的额外的工作,读查询应该作为单独的访问路径完成。当然代价就是换来最终一致性,所以最大的问题是:如何有效更新读取模型?让我们从一些问题开始:1.读模型应基于持久保存的事件进行更新,2.必须保证没有事件可以丢失,
  • 原文:Spark SQL 是 Spark 最新且技术最复杂的组件之一。它同时支持 SQL 查询和新的 DataFrame API。Spark SQL 的核心就是 Catalyst 优化器,它以一种全新的方式利用高级语言的特性(例如:Scala 的模式匹配和 Quasiquotes ①)来构建一个可扩展的查询优化器。最近我们发表了一篇