新一代操作系统的构想

当一堆机器通过puppet、pssh这样的软件在管理的时候,你真想,如果它们共同运行一个操作系统,由那个操作系统统一替你协调这些机器该多好,而这个操作系统不能是openstack那种以机器(运行Linux、Windows这样的操作系统的环境)为单位的,而应该是以我的“程序”为单位的。软件架构,不能太过离散。

日志、定时器事件、用户、安装包……为什么不统一规划呢?以前的OS是面向单机的,现在的OS是面向群集的,这可能就是Elastos该出手的地方。

 | 97 views | 0 comments | 0 flags

有关CLASSPATH的思考

Java程序中,因为所有类型都是类,所以在编译时不需要考虑为这个类型留多少空间的问题,所以只要在你的类路径中有这个类,你也import进来了引用的类,你不用关心你引用的类当前是否已经编译,编译器替你做。c++中则不成,你引用任何变量类型前,编译器都要知道它的详细信息。这也造成程序员工作的复杂。

c++编译器没有CLASSPATH的概念,脑袋中只有当前编译c/cpp程序。这就是为什么CLASSPATH成了程序设计技术中,一个独立可研究的领域。当你的程序是CAR这样的带元数据的c++程序了时,就应该有CLASSPATH的概念了。

CLASSPATH工作的基础就是它工作的单元(c++中的obj、Java中的class等)有元数据,元数据是给编译器、执行机构用的。

参考一下主动服务的概念:

http://media.cs.tsinghua.edu.cn/~zyx/doc/active_services.pdf

 | 150 views | 0 comments | 0 flags

OAuth2 Authentication

http://developer.wordpress.com/docs/oauth2/

 

OAuth2 Authentication

 

OAuth2 is a protocol that allows applications to interact with blogs on WordPress.com and self-hosted WordPress sites running Jetpack.

The primary goal of OAuth is to allow developers to interact with WordPress.com and Jetpack sites without requiring them to store sensitive credentials. Our implementation also allows users to manage their own connections.

If you are new to the world of OAuth, you can read more at http://oauth.net.

If you are already familiar with OAuth, then all you really need to know about are the two authentication endpoints. The authorization endpoint and the token request endpoint.

These endpoints are

 

https://public-api.wordpress.com/oauth2/authorize

https://public-api.wordpress.com/oauth2/token

 

The same endpoints are used for WordPress.com blogs and Jetpack sites.

Before you begin to develop an application, you will need a client id and a client secret key. The client id and client secret key will be used to authenticate your application and verify that the API calls being are valid. You can sign up for an id and secret at ourapplications manager.

Receiving an Access Token

To act on a user’s behalf and make calls from our API you will need an access token. To get an access token you need to go through the access token flow and prompt the user to authorize your application to act on his or her behalf.

Access tokens are currently per blog per user for most of our endpoints. This means that you will need a separate access token for each blog that a user owns and that you want access to. There are certain endpoints like likes and follows where you can use a users token on any blog to act on their behalf.

To begin, you will need to send the user to the authorization endpoint.

https://public-api.wordpress.com/oauth2/authorize?client_id=your_client_id&redirect_uri=your_url&response_type=code

client_id should be set to your application’s client id. response_type should always be set to “code”. redirect_uri should be set to the URL that the user will be redirected back to after the request is authorized. The redirect_uri should be set in the applications manager.

The redirect to your application will include a code which you will need in the next step. If the user has denied access to your app, the redirect will include ?error=access_denied

Optionally you may also pass along a blog parameter (&blog=) with the URL to a WordPress.com blog or Jetpack site. If you do not pass along a URL, or if the user does not have administrative access to manage the blog you passed along, then the user will be prompted to select the blog they are granting you access to.

Once the user has authorized the request, he or she will be redirected to the redirect_url. The request will look like the following:

http://developer.wordpress.com/?code=cw9hk1xG9k

This is a time-limited code that your application can exchange for a full authorization token. To do this you will need to pass the code to the token endpoint by making a POSTrequest to the token endpoint: https://public-api.wordpress.com/oauth2/token.

1
2
3
4
5
6
7
8
9
10
11
12
13
curl_setopt( $curl, CURLOPT_POST, true );
curl_setopt( $curl, CURLOPT_POSTFIELDS, array(
    'client_id' => your_client_id,
    'redirect_uri' => your_redirect_url,
    'client_secret' => your_client_secret_key,
    'code' => $_GET['code'], // The code from the previous request
    'grant_type' => 'authorization_code'
) );
curl_setopt( $curl, CURLOPT_RETURNTRANSFER, 1);
$auth = curl_exec( $curl );
$secret = json_decode($auth);
$access_key = $secret->access_token;

You are required to pass client_id, client_secret, and redirect_uri for web applications. These parameters have to match the details for your application, and the redirect_urimust match the redirect_uri used during the Authorize step (above). grant_type has to be set to “authorization_code”. code must match the code you received in the redirect.

If everything works correctly and the user grants authorization, you will get back a JSON-encoded string containing the token and some basic information about the blog:

{ "access_token": "YOUR_API_TOKEN", "blog_id": "blog id", "blog_url": "blog url", "token_type": "bearer" }

You now have an access token which should be stored securely with the blog id and blog url. This access token allows our application to act on the behalf of the user on this specific blog.

Making an API Call

Our API is JSON based. You can view all of the available endpoints at our API documentation. You can also make API calls with our legacy XML-RPC API.

In order to make an authenticated call to your APIS, you need to include your access token with the call. OAuth2 uses a BEARER token that is passed along in an Authorization header.

1
2
3
4
5
6
<?php
$access_key = "YOUR_API_TOKEN";
curl_setopt( $curl, CURLOPT_HTTPHEADER, array( 'Authorization: Bearer ' . $access_key ) );
curl_exec( $curl );
?>

The above example would return blog post ’43′ from our developer blog. You can make similar calls to the other available endpoints.

 | 120 views | 0 comments | 0 flags

关于MapReduce的思考

MapReduce为什么基本计算数据单元是<Key,Value>,因为它要通过Key来找计算结点,有了Key它才能Hash,才能让计算结点间负载均衡。
MapReduce通过把各计算结点的计算能力统一管理、协调,实现群集计算,这要求各计算结点间,无状态依赖,就是把你的输入处理完,给出输出,咱俩就没关系了。如果各计算结点是以class API的形式暴露的,就是Elastos了。Elastos在物联网模式,各计算结点耦合力比web强,比单机弱,就是这样的计算模型。
一个群集内,各计算结点都声明好自己的输入(供请求的API),同时再声明自己需要的API,就象是一个PE文件的导入、导出表,采用MapReduce这种思想,就构成了一个计算群集,参数传递自己序列化marshling/unmarshling,这样的OS有价值吗?Elastos就是这样的。

 | 116 views | 0 comments | 0 flags

【转】很多学习笔记而且整理得很好

1 index

1.1 Operating System

  • Computer System Reading 关于单机系统方面的一些文章以及阅读心得。
  • APUE Unix环境高级编程(Advanced Programming Unix Environment),W. Richard Stevens的神作。笔记里面没有包含书最后的几个部分,比如终端,打印机等,因为我觉得可能大家都不太需要这个东西了。我还尝试将一些跨章节的概念整合到一起,这样比较容易从总体把握Unix编程环境。
  • Linux 主要是介绍Linux下面一些工具使用以及和内核相关的知识。(将原来APUE 和 UNP 中的一部分内容放在这里面来了,这样可以保持这两篇内容比较稳定)
  • PIC 分析了一下PIC位置无关代码内部的原理以及和动态库之间的关系。通过阅读<深入理解计算机系统>并且结合实际的例子总结出来的。
  • GCC-Assembly 如何编写GCC内嵌汇编,以及一些关于GCC内嵌汇编的文章,主要是参考了<GCC Manual>. 但是自己对这个依然不是很了解。
  • Encoding 介绍了GB2312/GBK/GB18030/Unicode/UTF16/UTF32/UTF8这几种字符编码格式。还是觉得UTF8在设计以及实现上都相对更加合理。
  • CPU CPU相关
    • SIMD SIMD(Single Instruction Muitple Data)单指令多数据。这个笔记其实是Intel Reference Manual中关于SIMD指令的总结。里面包含了一些理解SIMD指令需要的知识,以及对SIMD指令进行了分类。遗憾的是里面没有什么过多的例子,毕竟这个是结合场景来使用的。
  • Concurrency 并发
  • Coroutine 协程,轻量级线程。
  • Lock 锁的原理与不同实现
  • Memory 内存相关
    • NUMA Non-Uniform Memory Access. 非一致性内存访问
    • Memory Barrier 内存屏障
    • TCMalloc Google的开源线程缓存内存分配器,解决多线程下面内存分配效率问题。
  • Continuation 延续,异步编程一种实现。
  • System-Peformance 系统性能相关
    • OProfile OProfile(系统级profiler)的原理和应用。不过说实话没有分析过源代码(或者是自己技术背景不行)终究觉得对这个东西理解不够深入,而且自己也仅仅是使用OProfile功能的子集。
    • SystemTap 通过将观察语句编译成为内核驱动,和linux内核提供的接口匹配,来深度地观察linux操作系统。
    • gperftools Google的性能分析工具,TCMalloc 实现也在里面。用来观察应用程序似乎是个不错的选择。
    • Perf Linux系统自带的性能分析工具,支持硬件以及软件事件计数器,支持profile kernel以及user code.
  • Akka Akka is a toolkit and runtime for building highly concurrent, distributed, and fault tolerant event-driven applications on the JVM.
  • Azkaban Linkedin的工作流系统,和 Oozie 功能相似但是相比好用很多。UI不错,概念也比较清晰。

1.2 Compression Technology

  • Snappy Google的开源压缩解压库。在满足一定压缩比率的条件下着重提升压缩和解压速度。
  • Lzf Redis 使用的开源压缩解压库。轻量(两个文件), 可以很容易地独立纳入项目。
  • Lzma Lempel-Ziv-Markov chain algorithm ,压缩速度相对较慢但是压缩比超高。

1.3 Tool and Desktop

  • Tool
    • License 一些常见的开源协议。不知道自己以后是否可以用得上:)
    • Web Misc Web开发遇到的一些问题。因为自己对于Web开发不太了解,所以内容上的话可能显得有点弱智。
    • SWIG C/C++多语言扩展接口生成器,使用起来非常方便(至于生成的代码没有看过效率如何).个人觉得比较适合quick & dirty的方案。
    • Git 分布式版本控制系统。很多项目都在使用Git进行版本管理包括Linux Kernel, Ruby on Rails, WINE, X.org等。
    • Folly Folly is an open-source C++ library developed and used at Facebook.
    • Flex/Bison 可以用来书写词法和语法分析器,Bison支持的语法是LALR(1)。
    • Valgrind CPU和内核模拟器,通过暴露接口可以构建动态分析工具,比如内存调试,检测内存泄露,多线程分析和性能分析等。
    • Protocol-Buffers Google的数据交换格式,能够高效地序列化和反序列化对象,同时考虑向后兼容问题。
    • Thrift Facebook的数据交换格式,能够高效地序列化和反序列化对象,同时考虑向后兼容问题。
    • GDB GNU Debugger, mainly on C/C++. 不过现在比较习惯打印日志方式来调试。
    • lcov the LTP(Linux Testing Project) GCOV extension.用来完成C/C++测试覆盖。
    • BuildSystem 在实现Baidu in-house的构建工具Comake2之前,做过构建系统的调研总结出来的。在语法表达上面(非常重要)借鉴了SCons,考虑了其他构建系统提供的功能。
      • Maven 主要针对Java开发的基于工程对象模型(POM, Project Object Model)构建系统,主要记录了一些使用方面的问题和解决办法。
      • SBT Simple(or Scala?) Build Tool
  • Desktop
    • Ubuntu 如何更好地使用Ubuntu. 之前有过痛苦的经历 。主要记录自己使用出现的问题。
    • FVWM F* Virtual Windows Manager.Linux下面高度可定制化的窗口管理器。
    • Macintosh 如何更好地使用Mac。以前使用Windows,后来转向Ubuntu,再后来买了个MBA. 熟悉它又需要一段时间了。
    • Emacs 如何更好地使用Emacs。自己依然只是使用一些简单功能,身边有很多牛人用Emacs那是相当的出神入化。
    • Eclipse 虽然我喜欢Emacs,但是似乎java方面开发似乎还是离不开它。
    • Intellij Eclipse太慢了,看看Intellij怎么样。

1.4 Algorithm Related

1.5 Network Programming

  • UNP Unix网络编程(Unix Network Programming),W. Richard Stevens的又一神作。笔记里面只是对于TCP原理有比较详细讨论,这部分笔记也包含了TCP Illustrated v1里面和TCP相关的章节内容。对于编程方面也着重TCP socket使用,毕竟在大部分应用场景下面我们选用TCP模型更多,并且TCP里面有很多非常琐碎的知识。
  • itachi 自己两天时间写完的异步网络编程框架,当然有很多地方需要改进,但是内核基本稳定了。并且在上面做了asocket封装,编写网络程序非常方便。TODO(dirlt):考虑写篇文章介绍一些
  • libev 开源的事件触发器。被认为是更高效的libevent. itachi 这个项目开始想自己编写事件触发器,但是发现工作比较琐碎枯燥,所以底层还是选择使用libev.
  • HPServer 开源的网络编程框架。可以当做一个入门级的网络编程框架阅读。这个是我最开始阅读的网络编程框架(1st).
  • NMSTL 开源的网络编程框架。一个很早期的作品,代码十分简洁。主要是内部实现了SEDA的思想。这个是我第二个阅读的网络编程框架(2nd).
  • Muduo 开源的网络编程框架。作者理想中的网络编程框架实现,里面有很多mina/netty的影子。这个是我三个阅读的网络编程框架(3rd).
  • Kylin Baidu in-house的异步编程框架,是linsd(百度首席架构师林仕鼎)的神作,通过阅读这个框架的代码让我理解了异步编程模型。这个是我第四个阅读的网络编程框架(4th).
  • ZeroMQ 开源的消息传输系统。颠覆我们思考和编写网络通信程序的方式。TODO(dirlt):只是阅读了文档和API,可以考虑阅读一下代码.
  • ACE 开源的网络编程框架。非常重量级,也被人诟病为学术产物而不是适合生产实践。TODO(dirlt):只是有大概的了解,有待更深入的研究.
  • Apache 历史悠久的开源HTTP服务器。 an effort to develop and maintain an open-source HTTP server for modern operating systems including UNIX and Windows NT
  • Netty an asynchronous event-driven network application framework in Java based on Java NIO.
  • Finagle an extensible RPC system for the JVM, used to construct high-concurrency servers.
  • HAProxy 高性能的负载均衡器,可以提供4(TCP),7(HTTP)层两种代理。

1.6 Storage System

  • Storage System Reading 关于存储系统方面的一些文章以及阅读心得。
    • Backblaze Storage Pod 构建廉价存储服务器的厂商。将其设计以及使用公开并且做了比较深入的说明。
  • DBMS DBMS(database management system)现在正在研究。打算首先阅读一下数据库系统基础教程(A First Course in Database Systems by Jeffrey D. Ullman),然后看看另外一本也是Jeffrey D. Ullman写的数据库系统实现(Database System Implementation).主要是了解DBMS方面的理论和大致实现,之后会稍微结合现有数据库实现阅读代码(MySQL/PostgreSQL).
  • LevelDB Google的开源kv存储系统。支持billion级别的数据量,适合于写少读多的情况。当时阅读的时候是从github上面clone下来的,可能还存相当多的bug.
  • MongoDB 面向文档的分布式存储系统,但是却可以针对文档字段索引来加快查询。功能上比通常我们认为的NoSQL强但是弱于RDBMS.
  • Redis 内存存储系统,支持丰富的数据类型以及相应的计算(支持持久化)。外围包装网络访问接口(并且提供了丰富的客户端),可以比较方便地在分布式系统内或者是环境下面使用.
  • MySQL 开源关系型数据库。The world’s most popular open source database.
  • SSD solid state disk.固态硬盘
  • RAID Redundant Array of Inexpensive Disk. 廉价磁盘冗余阵列
  • Memcached an in-memory key-value store for small chunks of arbitrary data (strings, objects) 可以用来搭建分布式缓存服务,没有持久化存储。
  • Gizzard a library for creating distributed datastores 可以认为是数据库中间层,完成partition/replication,也做fault-tolerant migration.
  • RocksDB A persistent key-value store for fast storage environments. 基于 LevelDB 构建,借鉴了 HBase 的思想。

1.7 Distributed System

1.8 Programming Language

  • Programming Language including following languages:
    • C/C++ # C++ (pronounced “cee plus plus”) is a statically typed, free-form, multi-paradigm, compiled, general-purpose programming language. It is regarded as an intermediate-level language, as it comprises a combination of both high-level and low-level language features. Wikipedia
    • Scheme # Scheme is a functional programming language and one of the two main dialects of the programming language Lisp. Wikipedia
    • Java # Java is a programming language originally developed by James Gosling at Sun Microsystems (which has since merged into Oracle Corporation) and released in 1995 as a core component of Sun Microsystems’ Java platform. The language derives much of its syntax from C and C++ but has a simpler object model and fewer low-level facilities. Wikipedia
      • JNI Java Native Interface
      • JVM Java Virtual Machine
    • Clojure # Clojure (pronounced like “closure”) is a recent dialect of the Lisp programming language created by Rich Hickey. It is a functional general-purpose language. Its focus on programming with immutable values and explicit progression-of-time constructs are intended to facilitate the development of more robust programs, particularly multithreaded ones. Wikipedia
    • Python # Python is a general-purpose, high-level programming language whose design philosophy emphasizes code readability. Its syntax is said to be clear and expressive. Python has a large and comprehensive standard library. Wikipedia
    • Go # Go is a compiled, garbage-collected, concurrent programming language developed by Google Inc. Wikipedia
    • Scala # Scala is an object-functional programming and scripting language for general software applications, statically typed, designed to concisely express solutions in an elegant, type-safe and lightweight (low ceremonial) manner. Wikipedia

1.9 Software Design

1.10 About Me

My name is Zhang Yan. I get MS. at Shandong University on Computer Science and BEng. at Shandong University on Electronic Engineering. I currently work as Software Architect in Data Platform Team at Umeng which focus on mobile analytics since 2012.5 where I manily work on building the infrastructure of big data processing. From 2010.6 to 2012.6, I have been a Senior Software Engineer at Baidu Infrastructure Tream where I wrote libraries, tools, services and distributed systems. From 2008.7 to 2010.6, I have been a Software Engineering Intern at Baidu Component Tream where I wrote libraries and tools. You can dig me more on my linkedin(or resume)

Here are my some notes written casually to record my life footprint. I think it will be fun to read them when I became old. Also there are some words on my blog

My code name is dirtysalt or dirlt. It’s translated from my chinese name. The translation works as following:

  • Zhang pronounce like ‘dirty’ in cn
  • Yan pronounce like in ‘salt’ in cn
  • then my code name is the combination of ‘dirty’ and ‘salt’ as ‘dirtysalt’
  • ‘dirtysalt’ can be abbreviated to ‘dirlt’.

Here is my contact info. I think email is the easiest way to get me.

My favouritest words comes from theidea of Valve : “Open your mind, Open your eyes” (放眼未来,自由想象), with a image from its game “Half Life”

Especially thanks to xuchaoqian for encouraging me to write and providing me host initially so I can publish my writings. And also thanks people who help me, support me, and accompany me, you complete me.

 | 92 views | 0 comments | 0 flags

【转】并发编程之内存屏障

http://hugozhu.myalert.info/2013/03/28/22-memory-barriers-or-fences.html

原文地址:http://mechanical-sympathy.blogspot.com/2011/07/memory-barriersfences.html 或http://ifeve.com/memory-barriersfences/

关键词:Load Barrier, Store Barrier, Full Barrier

 

目录:

 

 

 

本文我将和大家讨论并发编程中最基础的一项技术:内存屏障或内存栅栏,也就是让一个CPU处理单元中的内存状态对其它处理单元可见的一项技术。

CPU使用了很多优化技术来达成一个事实:CPU执行单元的速度要远超主存访问速度。在我上一篇文章 “Write Combing – 合并写”中我已经介绍了其中的一项技术。CPU避免内存访问延迟最常见的技术是将指令管道化,然后尽量重排这些管道的执行以最大利用缓存而把因为缓存未命中引起的延迟降到最小。

当一个程序执行时指令是否被重排并不重要,只要最终的结果是一样的。例如,在一个循环里,如果循环体内没用到这个计数器,循环的计数器什么时候更新(在循环开始,中间还是最后)并不重要。编译器和CPU可以自由的重排指令以最佳的利用CPU,只要下一次循环前更新该计数器即可。并且在循环执行中,这个变量可能一直存在寄存器上,并没有被推到缓存或主存,这样这个变量对其他CPU来说一直都是不可见的。

CPU核内部包含了多个执行单元。例如,现代Intel CPU包含了6个执行单元,可以组合进行算术运算,逻辑条件判断及内存操作。每个执行单元可以执行上述任务的某种组合。这些执行单元是并行执行的,这样指令也就是在并行执行。但如果站在另一个CPU角度看,这也就产生了程序顺序的另一种不确定性。

最后,当一个缓存失效发生时,现代CPU可以先假设一个内存载入的值并根据这个假设值继续执行,直到内存载入返回确切的值。

  1. CPU核
  2. |
  3. V
  4. 寄存器
  5. |
  6. V
  7. 执行单元 -> Load/Store缓冲区->L1 Cache --->L3 Cache-->内存控制器-->主存
  8. | |
  9. +-> Write Combine缓冲区->L2 Cache ---+

代码顺序并不是真正的执行顺序,CPU和编译器可以各种优化只要有空间提高性能。缓存和主存的读取会利用load, store和write-combining缓冲区来缓冲和重排。这些缓冲区是查找速度很快的关联队列,当一个后来发生的load需要读取上一个store的值,而该值还没有到达缓存,查找是必需的,上图描绘的是一个简化的现代多核CPU,从上图可以看出执行单元可以利用本地寄存器和缓冲区来管理和缓存子系统的交互。

在多线程环境里需要使用技术来使得程序结果尽快可见。这篇文章里我不会涉及到 Cache Conherence 的概念。请先假定一个事实:一旦内存数据被推送到缓存,就会有消息协议来确保所有的缓存会对所有的共享数据同步并保持一致。这个使内存数据对CPU核可见的技术被称为内存屏障或内存栅栏。

内存屏障提供了两个功能。首先,它们通过确保从另一个CPU来看屏障的两边的所有指令都是正确的程序顺序,而保持程序顺序的外部可见性;其次它们可以实现内存数据可见性,确保内存数据会同步到CPU缓存子系统。

大多数的内存屏障都是复杂的话题。在不同的CPU架构上内存屏障的实现非常不一样。相对来说Intel CPU的强内存模型比DEC Alpha的弱复杂内存模型(缓存不仅分层了,还分区了)更简单。因为x86处理器是在多线程编程中最常见的,下面我尽量用x86的架构来阐述。

Store Barrier

Store屏障,是x86的”sfence“指令,强制所有在store屏障指令之前的store指令,都在该store屏障指令执行之前被执行,并把store缓冲区的数据都刷到CPU缓存。这会使得程序状态对其它CPU可见,这样其它CPU可以根据需要介入。一个实际的好例子是Disruptor中的BatchEventProcessor。当序列Sequence被一个消费者更新时,其它消费者(Consumers)和生产者(Producers)知道该消费者的进度,因此可以采取合适的动作。所以屏障之前发生的内存更新都可见了。

  1. private volatile long sequence = RingBuffer.INITIAL_CURSOR_VALUE;
  2. // from inside the run() method
  3. T event = null;
  4. long nextSequence = sequence.get() + 1L;
  5. while (running)
  6. {
  7. try
  8. {
  9. final long availableSequence = barrier.waitFor(nextSequence);
  10. while (nextSequence <= availableSequence)
  11. {
  12. event = ringBuffer.get(nextSequence);
  13. boolean endOfBatch = nextSequence == availableSequence;
  14. eventHandler.onEvent(event, nextSequence, endOfBatch);
  15. nextSequence++;
  16. }
  17. sequence.set(nextSequence - 1L);
  18. // store barrier inserted here !!!
  19. }
  20. catch (final Exception ex)
  21. {
  22. exceptionHandler.handle(ex, nextSequence, event);
  23. sequence.set(nextSequence);
  24. // store barrier inserted here !!!
  25. nextSequence++;
  26. }
  27. }

Load Barrier

Load屏障,是x86上的”ifence“指令,强制所有在load屏障指令之后的load指令,都在该load屏障指令执行之后被执行,并且一直等到load缓冲区被该CPU读完才能执行之后的load指令。这使得从其它CPU暴露出来的程序状态对该CPU可见,这之后CPU可以进行后续处理。一个好例子是上面的BatchEventProcessor的sequence对象是放在屏障后被生产者或消费者使用。

Full Barrier

Full屏障,是x86上的”mfence“指令,复合了load和save屏障的功能。

Java内存模型

Java内存模型volatile变量在写操作之后会插入一个store屏障,在读操作之前会插入一个load屏障。类的final字段会在初始化后插入一个store屏障来确保final字段在构造函数完成可被使用时可见。

原子指令和Software Locks

原子指令,如x86上的”lock …” 指令是一个Full Barrier,执行时会锁住内存子系统来确保执行顺序,甚至跨多个CPU。Software Locks通常使用了内存屏障或原子指令来实现变量可见性和保持程序顺序。

内存屏障的性能影响

内存屏障阻碍了CPU采用优化技术来降低内存操作延迟,必须考虑因此带来的性能损失。为了达到最佳性能,最好是把要解决的问题模块化,这样处理器可以按单元执行任务,然后在任务单元的边界放上所有需要的内存屏障。采用这个方法可以让处理器不受限的执行一个任务单元。合理的内存屏障组合还有一个好处是:缓冲区在第一次被刷后开销会减少,因为再填充改缓冲区不需要额外工作了。

 | 101 views | 0 comments | 0 flags

SMP、NUMA、MPP体系结构介绍

http://www.cnblogs.com/yubo/archive/2010/04/23/1718810.html

从系统架构来看,目前的商用服务器大体可以分为三类,即对称多处理器结构 (SMP : Symmetric Multi-Processor) ,非一致存储访问结构 (NUMA : Non-Uniform Memory Access) ,以及海量并行处理结构 (MPP : Massive Parallel Processing) 。它们的特征分别描述如下:

1. SMP(Symmetric Multi-Processor)

SMP (Symmetric Multi Processing),对称多处理系统内有许多紧耦合多处理器,在这样的系统中,所有的CPU共享全部资源,如总线,内存和I/O系统等,操作系统或管理数据库的复本只有一个,这种系统有一个最大的特点就是共享所有资源。多个CPU之间没有区别,平等地访问内存、外设、一个操作系统。操作系统管理着一个队列,每个处理器依次处理队列中的进程。如果两个处理器同时请求访问一个资源(例如同一段内存地址),由硬件、软件的锁机制去解决资源争用问题。Access to RAM is serialized; this and cache coherency issues causes performance to lag slightly behind the number of additional processors in the system.

clip_image001

所谓对称多处理器结构,是指服务器中多个 CPU 对称工作,无主次或从属关系。各 CPU 共享相同的物理内存,每个 CPU 访问内存中的任何地址所需时间是相同的,因此 SMP 也被称为一致存储器访问结构 (UMA : Uniform Memory Access) 。对 SMP 服务器进行扩展的方式包括增加内存、使用更快的 CPU 、增加 CPU 、扩充 I/O( 槽口数与总线数 ) 以及添加更多的外部设备 ( 通常是磁盘存储 ) 。

SMP 服务器的主要特征是共享,系统中所有资源 (CPU 、内存、 I/O 等 ) 都是共享的。也正是由于这种特征,导致了 SMP 服务器的主要问题,那就是它的扩展能力非常有限。对于 SMP 服务器而言,每一个共享的环节都可能造成 SMP 服务器扩展时的瓶颈,而最受限制的则是内存。由于每个 CPU 必须通过相同的内存总线访问相同的内存资源,因此随着 CPU 数量的增加,内存访问冲突将迅速增加,最终会造成 CPU 资源的浪费,使 CPU 性能的有效性大大降低。实验证明, SMP 服务器 CPU 利用率最好的情况是 2 至 4 个 CPU 。

clip_image002

图 1.SMP 服务器 CPU 利用率状态

2. NUMA(Non-Uniform Memory Access)

由于 SMP 在扩展能力上的限制,人们开始探究如何进行有效地扩展从而构建大型系统的技术, NUMA 就是这种努力下的结果之一。利用 NUMA 技术,可以把几十个 CPU( 甚至上百个 CPU) 组合在一个服务器内。其 CPU 模块结构如图 2 所示:

clip_image003

图 2.NUMA 服务器 CPU 模块结构

NUMA 服务器的基本特征是具有多个 CPU 模块,每个 CPU 模块由多个 CPU( 如 4 个 ) 组成,并且具有独立的本地内存、 I/O 槽口等。由于其节点之间可以通过互联模块 ( 如称为 Crossbar Switch) 进行连接和信息交互,因此每个 CPU 可以访问整个系统的内存 ( 这是 NUMA 系统与 MPP 系统的重要差别 ) 。显然,访问本地内存的速度将远远高于访问远地内存 ( 系统内其它节点的内存 ) 的速度,这也是非一致存储访问 NUMA 的由来。由于这个特点,为了更好地发挥系统性能,开发应用程序时需要尽量减少不同 CPU 模块之间的信息交互。

利用 NUMA 技术,可以较好地解决原来 SMP 系统的扩展问题,在一个物理服务器内可以支持上百个 CPU 。比较典型的 NUMA 服务器的例子包括 HP 的 Superdome 、 SUN15K 、 IBMp690 等。

但 NUMA 技术同样有一定缺陷,由于访问远地内存的延时远远超过本地内存,因此当 CPU 数量增加时,系统性能无法线性增加。如 HP 公司发布 Superdome 服务器时,曾公布了它与 HP 其它 UNIX 服务器的相对性能值,结果发现, 64 路 CPU 的 Superdome (NUMA 结构 ) 的相对性能值是 20 ,而 8 路 N4000( 共享的 SMP 结构 ) 的相对性能值是 6.3 。从这个结果可以看到, 8 倍数量的 CPU 换来的只是 3 倍性能的提升。

3. MPP(Massive Parallel Processing)

和 NUMA 不同, MPP 提供了另外一种进行系统扩展的方式,它由多个 SMP 服务器通过一定的节点互联网络进行连接,协同工作,完成相同的任务,从用户的角度来看是一个服务器系统。其基本特征是由多个 SMP 服务器 ( 每个 SMP 服务器称节点 ) 通过节点互联网络连接而成,每个节点只访问自己的本地资源 ( 内存、存储等 ) ,是一种完全无共享 (Share Nothing) 结构,因而扩展能力最好,理论上其扩展无限制,目前的技术可实现 512 个节点互联,数千个 CPU 。目前业界对节点互联网络暂无标准,如 NCR 的 Bynet , IBM 的 SPSwitch ,它们都采用了不同的内部实现机制。但节点互联网仅供 MPP 服务器内部使用,对用户而言是透明的。

在 MPP 系统中,每个 SMP 节点也可以运行自己的操作系统、数据库等。但和 NUMA 不同的是,它不存在异地内存访问的问题。换言之,每个节点内的 CPU 不能访问另一个节点的内存。节点之间的信息交互是通过节点互联网络实现的,这个过程一般称为数据重分配 (Data Redistribution) 。

但是 MPP 服务器需要一种复杂的机制来调度和平衡各个节点的负载和并行处理过程。目前一些基于 MPP 技术的服务器往往通过系统级软件 ( 如数据库 ) 来屏蔽这种复杂性。举例来说, NCR 的 Teradata 就是基于 MPP 技术的一个关系数据库软件,基于此数据库来开发应用时,不管后台服务器由多少个节点组成,开发人员所面对的都是同一个数据库系统,而不需要考虑如何调度其中某几个节点的负载。

MPP (Massively Parallel Processing),大规模并行处理系统,这样的系统是由许多松耦合的处理单元组成的,要注意的是这里指的是处理单元而不是处理器。每个单元内的CPU都有自己私有的资源,如总线,内存,硬盘等。在每个单元内都有操作系统和管理数据库的实例复本。这种结构最大的特点在于不共享资源。

clip_image004

4. 三种体系架构之间的差异

4.1 SMP系统与MPP系统比较

既然有两种结构,那它们各有什么特点呢?采用什么结构比较合适呢?通常情况下,MPP系统因为要在不同处理单元之间传送信息(请注意上图),所以它的效率要比SMP要差一点,但是这也不是绝对的,因为MPP系统不共享资源,因此对它而言,资源比SMP要多,当需要处理的事务达到一定规模时,MPP的效率要比SMP好。这就是看通信时间占用计算时间的比例而定,如果通信时间比较多,那MPP系统就不占优势了,相反,如果通信时间比较少,那MPP系统可以充分发挥资源的优势,达到高效率。当前使用的OTLP程序中,用户访问一个中心数据库,如果采用SMP系统结构,它的效率要比采用MPP结构要快得多。而MPP系统在决策支持和数据挖掘方面显示了优势,可以这样说,如果操作相互之间没有什么关系,处理单元之间需要进行的通信比较少,那采用MPP系统就要好,相反就不合适了。

通过上面两个图我们可以看到,对于SMP来说,制约它速度的一个关键因素就是那个共享的总线,因此对于DSS程序来说,只能选择MPP,而不能选择SMP,当大型程序的处理要求大于共享总线时,总线就没有能力进行处理了,这时SMP系统就不行了。当然了,两个结构互有优缺点,如果能够将两种结合起来取长补短,当然最好了。
clip_image005
clip_image006

4.2 NUMA 与 MPP 的区别

从架构来看, NUMA 与 MPP 具有许多相似之处:它们都由多个节点组成,每个节点都具有自己的 CPU 、内存、 I/O ,节点之间都可以通过节点互联机制进行信息交互。那么它们的区别在哪里?通过分析下面 NUMA 和 MPP 服务器的内部架构和工作原理不难发现其差异所在。

首先是节点互联机制不同, NUMA 的节点互联机制是在同一个物理服务器内部实现的,当某个 CPU 需要进行远地内存访问时,它必须等待,这也是 NUMA 服务器无法实现 CPU 增加时性能线性扩展的主要原因。而 MPP 的节点互联机制是在不同的 SMP 服务器外部通过 I/O 实现的,每个节点只访问本地内存和存储,节点之间的信息交互与节点本身的处理是并行进行的。因此 MPP 在增加节点时性能基本上可以实现线性扩展。

其次是内存访问机制不同。在 NUMA 服务器内部,任何一个 CPU 可以访问整个系统的内存,但远地访问的性能远远低于本地内存访问,因此在开发应用程序时应该尽量避免远地内存访问。在 MPP 服务器中,每个节点只访问本地内存,不存在远地内存访问的问题。

clip_image007

图 3.MPP 服务器架构图

数据仓库的选择

哪种服务器更加适应数据仓库环境?这需要从数据仓库环境本身的负载特征入手。众所周知,典型的数据仓库环境具有大量复杂的数据处理和综合分析,要求系统具有很高的 I/O 处理能力,并且存储系统需要提供足够的 I/O 带宽与之匹配。而一个典型的 OLTP 系统则以联机事务处理为主,每个交易所涉及的数据不多,要求系统具有很高的事务处理能力,能够在单位时间里处理尽量多的交易。显然这两种应用环境的负载特征完全不同。

从 NUMA 架构来看,它可以在一个物理服务器内集成许多 CPU ,使系统具有较高的事务处理能力,由于远地内存访问时延远长于本地内存访问,因此需要尽量减少不同 CPU 模块之间的数据交互。显然, NUMA 架构更适用于 OLTP 事务处理环境,当用于数据仓库环境时,由于大量复杂的数据处理必然导致大量的数据交互,将使 CPU 的利用率大大降低。

相对而言, MPP 服务器架构的并行处理能力更优越,更适合于复杂的数据综合分析与处理环境。当然,它需要借助于支持 MPP 技术的关系数据库系统来屏蔽节点之间负载平衡与调度的复杂性。另外,这种并行处理能力也与节点互联网络有很大的关系。显然,适应于数据仓库环境的 MPP 服务器,其节点互联网络的 I/O 性能应该非常突出,才能充分发挥整个系统的性能。

4.3 NUMAMPPSMP之间性能的区别

 

NUMA的节点互联机制是在同一个物理服务器内部实现的,当某个CPU需要进行远地内存访问时,它必须等待,这也是NUMA服务器无法实现CPU增加时性能线性扩展。

MPP的节点互联机制是在不同的SMP服务器外部通过I/O实现的,每个节点只访问本地内存和存储,节点之间的信息交互与节点本身的处理是并行进行的。因此MPP在增加节点时性能基本上可以实现线性扩展。

SMP所有的CPU资源是共享的,因此完全实现线性扩展。

4.4 NUMA、MPP、SMP之间扩展的区别

 

NUMA理论上可以无限扩展,目前技术比较成熟的能够支持上百个CPU进行扩展。如HP的SUPERDOME。

MPP理论上也可以实现无限扩展,目前技术比较成熟的能够支持512个节点,数千个CPU进行扩展。

SMP扩展能力很差,目前2个到4个CPU的利用率最好,但是IBM的BOOK技术,能够将CPU扩展到8个。

MPP是由多个SMP构成,多个SMP服务器通过一定的节点互联网络进行连接,协同工作,完成相同的任务。

4.5 MPPSMPNUMA应用之间的区别

 

MPP的优势:

 

MPP系统不共享资源,因此对它而言,资源比SMP要多,当需要处理的事务达到一定规模时,MPP的效率要比SMP好。由于MPP系统因为要在不同处理单元之间传送信息,在通讯时间少的时候,那MPP系统可以充分发挥资源的优势,达到高效率。也就是说:操作相互之间没有什么关系,处理单元之间需要进行的通信比较少,那采用MPP系统就要好。因此,MPP系统在决策支持和数据挖掘方面显示了优势。

 

SMP的优势:

 

MPP系统因为要在不同处理单元之间传送信息,所以它的效率要比SMP要差一点。在通讯时间多的时候,那MPP系统可以充分发挥资源的优势。因此当前使用的OTLP程序中,用户访问一个中心数据库,如果采用SMP系统结构,它的效率要比采用MPP结构要快得多。

NUMA架构的优势:

 

NUMA架构来看,它可以在一个物理服务器内集成许多CPU,使系统具有较高的事务处理能力,由于远地内存访问时延远长于本地内存访问,因此需要尽量减少不同CPU模块之间的数据交互。显然,NUMA架构更适用于OLTP事务处理环境,当用于数据仓库环境时,由于大量复杂的数据处理必然导致大量的数据交互,将使CPU的利用率大大降低。

 | 203 views | 0 comments | 0 flags

CMP读书笔记四:降低单任务的延时(Improve Latency)

http://www.sigma.me/2011/03/31/cmp-improve-latency.html

 

上一篇关于提高处理器吞吐量的文章讲到,CMP以及SMT技术可以大大提高处理器的吞吐量,提高处理器的并发处理器能力,从而分别提高处理器的峰值和效率。

但是,现在的很多串行程序,还不能直接从CMP以及SMT技术中获利。并且,这些程序中有很多都又对延时很敏感,比如说各类实时应用。对于这些程序,提高单个任务的性能,降低延时就很有必要。在CMP出现之前,各类的复杂的处理器结构的基本目标都是这个,包括超标量,提高主频等,其基本思想都是提高单处理器核心的性能。但是,当多核时代来临后,出现了一些新的方法,最常见的有:辅助线程(Helper thread),猜测多线程(thread-level speculation,TLS),核融合(core fusion)等技术,下面对这些技术进行简要的介绍。

辅助线程技术是通过在任务主线程外的加一个辅助线程(helper thread),辅助线程要比主线程跑地快一点,但是可以跳过一些代码,功能主要是为主线程完成一些预取操作,比如将数据从主存搬到cache上,从而降低主线程的cache miss等,提高主线程(也即任务)的执行速度。

猜测多线程技术是通过在执行过程中将一些原来的串行比较容易并行化的代码(如循环,分支,不同函数等)的动态地分配给几个线程执行,从而提高程序的执行速度,但是猜测多线程会带来额外的消耗,一是线程分配的消耗,另外就是猜测失败重新执行的消耗。一个好的猜测多线程机制必须解决以下几个问题:

  • 线程间通信:如何拆解程序,使不同线程之间的通信尽可能少,同时如何通信,使得线程间通信效率尽可能高。
  • 检测处理各种相关:为了保证程序执行的正确性,必须检测线程间的各种相关并进行处理,包括读后写(RAW),写后读(WAR),写后写(WAW)相关。不合适的线程分配会导致大量相关,从而导致线程间大量依赖导致堵塞。不明智的相关处理器机制会导致堵塞的时间很长,从而程序效率低下。
  • 猜测失败的处理:既然是猜测,难免就会失败。失败后的恢复或者重新执行的机制需要保证系统的所有相关状态要回到猜测执行之前的状态,这样才能保证安全和正确。
  • 猜测线程机制:猜测线程需要考虑各种因素:由于每个线程的buffer size有限(在每个线程提交之前,为了保证正确性,所有执行都需要buffer下来),导致每个线程的长度不能太长。必须减少线程间的真依赖,减少堵塞。多长的时间进行check,何时进行重新执行等等。

核融合是指硬件将多个核的各个功能部件,如取值,执行等融合成一个核,就像superscale那样,从而提高串行程序的执行速度。这东西貌似比较新,wikipedia都还没有相关内容,想了解的话,可以自己google scholar “Core fusion”。

最后,附上一张TLS的示意图,图来自《Chip Multiprocessor Architecture:Techniques to Improve Throughput and Latency》一书:
猜测多线程TLS示意图

 | 74 views | 0 comments | 0 flags

CMP读书笔记三:提高吞吐量(IMPROVING THROUGHPUT)

http://www.sigma.me/2011/03/31/cmp-improve-throughput.html

 

随着互联网的发展,web服务器成为了一个很大的应用。和传统的科学计算以及桌面应用不同,web服务器对延时并不是很敏感,因为网络传输延时往往大于服务器端的计算延时。相反的,对于web服务器,提高并发处理能力倒显得极端重要,因为现在的web站点动辄就是几万人,甚至上千万人在线(当然,对于这种系统,往往不是一个服务器,而是服务器分布在各地,导出都是CDN),因此,提高web服务器的处理器吞吐量就显得极端重要(记得计算所所长李国杰院士去年提过高通量计算,不知道是不是这个意思)。

提高处理器的吞吐量的基本思路很简单,那就是提高处理器的并发线程数,而提高处理器的并发线程数,方法又有两类,同步多线程(Simultaneous MultiThreading,SMT)以及多核(Multicore)。

传统的处理器核心只能并发执行一个线程,而一个线程内部往往会由于相关(数据相关,控制相关)导致流水线堵塞,从而导致处理器的部件不能充分利用(包括取值部件,功能部件等)。为了减少由于线程内的依赖所造成的堵塞,提高单个处理器核心的吞吐量,出现了在一个处理器核心同时执行几个线程的技术(因为线程间的依赖比线程内要少很多),即同步多线程技术,Intel又叫超线程技术(Hyper-Threading Technology,HT)。

同步多线程(SMT)是一种在一个CPU 的时钟周期内能够执行来自多个线程的指令的硬件多线程技术。本质上,同步多线程是一种将线程级并行处理(多CPU)转化为指令级并行处理(同一CPU)的方法。 同步多线程是单个物理处理器从多个硬件线程上下文同时分派指令的能力。同步多线程用于在商用环境中及为周期/指令(CPI)计数较高的工作负载创造性能优势。 同步多线程使您可在同一处理器上同时调度多个线程,从而充分利用处理器的各个部件,提高性能功耗比。下面是一副不同粒度的多线程技术的比较,同时从图中也可以基本看出同步多线程的基本原理。
同步多线程示意图

很多厂商,包括IBM,Sun,Intel的处理器都应用了同步多线程技术,MIPS昨天也发布了代号为神童(Prodigy)的64位同步多线程处理器

另外一方面,多核也是提高并发线程数的好方法,但是多核会增加大量的面积及功耗,从而大大降低性能功耗比,而性能功耗比对于24小时在线的web服务器是至关重要的,因此,不能简单的在超标量核心上堆积现有的复杂的超标量(Superscale)处理器核心。

考虑到web应用对延时不敏感的特点,可以将每个处理器核心设计的尽量简单(但可以保持其同步多线程的能力),从而提高处理器核心数目同时,对面积和功耗并不会提高,同时可以大大的提高处理器处理并发线程数(等于处理器核心数X每个核心的多线程数)的能力,提高处理器的吞吐量,并且提高性能功耗比。下面这幅图比较了超标量的多核处理器和简单的多核处理器的吞吐量和功耗的比较,可以看到,简单的核心优势极其明显。
标量的多核处理器和简单的多核处理器的吞吐量和功耗的比较

在设计web服务器处理器方面,Sun做到了极致,其Niagara系列处理器绝对是这个领域的巅峰之作(可惜一心做技术的sun却被一心赚钱的oracle收购了!)。

 | 90 views | 0 comments | 0 flags

CMP读书笔记二:CMP简要介绍

http://www.sigma.me/2011/03/31/cmp-overview.html

 

注:上个学期就下过决心要把《Chip Multiprocessor Architecture Techniques to Improve Throughput and Latency》看完,并且写了一篇关于CMP的读书笔记,《CMP的提出》,之后,虽然看了下,但一直不想写,今天突然感觉应该把看的东西简要写写,算是总结,故有此文。为了使得这几篇文章脉络稍微清晰点,在这里先对片上多核处理器进行简要的介绍。

片上多核处理器(Chip Multicore Processor,CMP)就是将多个处理器核心集成到一个处理器芯片中,从而提高单个处理器的处理能力。

按照集成的处理器核心的数目,片上多核处理器可以分为多核处理器和众核(Manycore)处理器。

按照计算内核对等与否,片上多核处理器处理器又可以分为同构多核处理器和异构多核处理器。同构多核处理器的各个核心的结构相同,地位对等,现在主流的处理器厂商,如Intel,AMD所推出的处理器一般都是属于这类。异构多核处理器的各个核心的结构不同,功能也不同,地位也不同,分为主处理器和协处理器,IBM,索尼,东芝联手推出的Cell处理器就是一个典型的代表,Cell由一个Power主处理器单元(Power Processor Element ,PPE)和8个协同处理单元(Synergistic Processing Elements,SPE)组成,8个SPE结构不同的,不同的SPE可以快速的完成不同的类型的运算。

片上多核处理器的出现使得在一个处理器上并发地执行多个线程成为可能,大大的增加了处理器的吞吐量(throughput),一些吞吐量的应用,如web应用,可以充分的并且很简单地利用片上多核处理器代理的优势,详见关于提高处理器吞吐量的文章。但是,对于另外一些对延时敏感,需要高性能的应用,就不是那么容易直接利用多核带来的性能提升。

这些程序分为两类,一类是原来单核心处理器上的串行程序,这些程序不可以直接通过多线程手段在多核处理器上获得更高的性能,为了利用多核所能带来的性能提高,有两种方法可以提高这类程序的性能:第一种是通过增加一个辅助线程(helper thread),辅助线程要比主线程跑地快一点,但是可以跳过一些代码,功能主要是为主线程完成一些预取操作,比如将数据从主存搬到cache上;第二种是通过猜测多线程(thread-level speculation,TLS)来提高串行程序的性能,猜测多线程通过在执行过程中将一些原来的串行比较容易并行化的代码(如循环)的动态地分配给几个线程执行,从而提高程序的执行速度,但是猜测多线程会带来额外的消耗,一是线程分配的消耗,另外就是猜测失败重新执行的消耗。这部分内容详见以后会写的关于降低处理器单任务延时的文章。

第二类程序就是一些本来就是针对多核处理器设计的多线程程序,对于这类程序,可以直接将不同的线程映射到不同的处理器核心,但是,该类程序会因为不同的线程间的数据依赖以及共享资源的竞争导致不能取得理想的加速比。

该书电子pdf版:

Chip Multiprocessor Architecture Techniques to Improve Throughput and Latency

 | 67 views | 0 comments | 0 flags

MIT Angstrom 项目(一)-为多核芯片设计新一代核间互连通路

http://www.sigma.me/2011/02/26/mit-angstrom-hardware.html

 

今天从博客园新闻新闻频道看到了关于MIT的Angstrom项目的介绍,感觉这东西很有必要,也很有前途,于是去MIT官网看了下。这篇文章就介绍一下Angstrom硬件部分,为多核(Multicore)众核(Manycore)芯片设计新一代的高速互连通路(注意,这里讲的是通路,而没说是电路)。

随着摩尔定律日渐式微,提高性能的主要道路主频之路几乎走到了尽头(不过前几天IBM还在ISSCC2011上发布了 5.2GHz 的z196,顺便打下广告,原文的标题是ISSCC: China eyes petaflops, IBM hits 5 GHz,有咱龙芯哈),但天无绝人之路,主频不能提高了,于是出现了多核(Multicore)和众核(Manycore), 但是,多核使得原来已经很明显的存储墙(Memory Wall)愈加明显。并且多核的存储墙往往是不可以通过增加存储层次(如数级Cache)来消除或者减小,因为多核的存储墙的一个重要原因是存储(包括Cache)一致性(memory coherence)导致了核间通讯的增加,这部分通讯是没有办法通过多级存储结构减小的。

为此,美国国防部高级研究计划署(DARPA)在MIT和几个大公司里面推进了一个叫Angstrom的项目,该项目的硬件部分主要目的就是为多喝芯片设计新一代的核内核间互联通路。现在,主要有两种方法提高互连通路的Performance。

第一种方法没有对通信介质进行改进,还是基于电子(electrical),其基本思想是受互联网启发,每个核相当于网路中的一台机器,为了维护存储一致性,不是采用之前的广播算法,而是只把新的数据发给需要的核心,并且每个核心维护一张路由表(router),找到最近的最快的路径发至目标核心,这样的话,可以大大减少核间通讯,提高核间通讯性能。(不过个人感觉,如何决定那些核心需要更新的数据,以及每个核心如何维护一张路由表不出错是一个很难解决的问题)

第二种方法是改进通信介质,用光互连(light)替代现有的电互连,而计算电路保持原来的电子结构。由于光的带宽极大,因此,这种方法是革命性的,将彻底改变整个计算机的结构,因为这是存储墙将不再存在,现在很多为了提高访存的结构将从计算机体系结构中消失。很多优化访存的编译技术也将从编译器中消失。但是该技术现在技术不是很成熟,成本也极其高昂。

第三种方法是改进数据结构,比如对某些不变(只读)的数据,就可以不关心其一致性问题。

在下一篇文章中,将介绍下Angstrom的软件部分,设计新一代多核操作系统

更多阅读:MIT News的英文原文.

最后,附上之前看到(可能有点老了)一张龙芯众核Godson-T的结构图:

 

 | 115 views | 0 comments | 0 flags