Theo dõi sự phát triển của thành phố sử dụng 4D Point Cloud Data

 

Các nhà nghiên cứu từ Đại học Công nghệ Munich – Đức (Technical University of Munich – TUM) đã thành công trong việc sử dụng 4D Point Cloud để tạo nên các bản ghi theo dõi sự thay đổi và phát triển của các thành phố lớn như Berlin, Las Vegas, Paris và Washington, D.C. từ ảnh vệ tinh TerraSar-X.

Để làm được điều này, Giáo sư Xiaoxiang Zhu và đội nghiên cứu đã phải ghi lại hơn ba triệu điểm trong đối với mỗi km2. Ngày nay, gần một nửa dân số trên thế giới đang sinh sống và làm việc ở các thành phố. Với các sự tăng trưởng được dự đoán thì vào năm 2050, thì khả năng số lượng dân số sẽ đạt đến mốc hai phần ba dân số thế giới sẽ định cư tại các thành phố.

Giáo sư Xiaoxiang Zhu nói: “Sự tăng trưởng dân số này sẽ đặt ra các yêu cầu cao về về độ an toàn của các tòa nhà nói riêng và sự an toàn về cơ sở hạ tầng nói chung. Vì nếu có thiệt hại xảy ra, hàng ngàn người có thể bị nguy hiểm đến tính mạng “.

Cùng với đội ngũ vủa mình, Giáo sư Xiaxiang Zhu đã phát triển thuật toán giúp tái tạo lại các mô hình 3D và thậm chí là 4D có độ chính xác cao từ dữ liệu Point Cloud với mật độ ba triệu điểm trên mỗi km2 để dự đoán sớm về các mối hiểm họa tiềm ẩn: ví dụ như hiện tượng lún ngầm bên trong mặt đất có thể gây sập nhà cửa, cầu đường. Phương pháp mới này cho phép phát hiện và hiển thị những thay đổi này với sự chi tiết mỗi milimiet mỗi năm. Dữ liệu dùng cho nghiên cứu được lấy từ vệ tinh TerrSar-X của Đức, đây là vệ tinh radar dân dụng có độ phân giải cao nhất trên thế giới hiện nay. Vì các hình ảnh được chụp ở những thời điểm khác nhau cho nên chúng có thể ước tính được sự thay đổi theo chiều thời gian (chiều thứ tư) đối với một khu vực thành phố.

Kết quả mô hình 4D cho thấy những thay đổi dù chỉ là rất nhỏ với độ chính xác cỡ khoảng một milimet môt năm. Ví dụ như sự giãn nở do ảnh hưởng từ nhiệt độ của các tòa nhà vào mùa hè hay sự biến dạng do sự sụt lún xảy ra bên dưới bề mặt trái đất.

Nghiên cứu được tập trung thực hiện vào các quốc gia công nghiệp hóa, nơi mà các khu vực đô thị đều tăng trưởng và phát triển rất nhanh. Giáo sư Zhu có kế hoạch sử dụng nhiều nguồn dữ liệu lớn (Big Data) vào nghiên cứu của nhóm như: các dữ liệu đo đạc được từ vệ tinh kết hợp với các thông tin bản đồ của Open Street Map và các nguồn hình ảnh, văn bản cũng như các mô hình hoạt động được cung cấp từ mạng xã hội.

Nguồn: Geospatial Word

 

 

 

Bản đồ ô nhiễm không khí có độ phân giải cao với xe Google Street View: Ứng dụng từ khai thác dữ liệu lớn

Ô nhiễm không khí hiện đang ảnh hưởng tới hàng tỷ người trên thế giới nhưng các giải pháp về quan trắc và đo đạc ô nhiễm không khí còn rất hạn chế. Đặc biệt ở đô thị, nồng độ chất ô nhiễm không khí có biến động lớn ngay cả trên khoảng cách nhỏ ( << 1 km) do các nguồn phát thải không đều, pha loãng, và các biến đổi hóa lý. Ngày nay, các phương pháp quan trắc ô nhiễm truyền thống tại các trạm cố định thiếu đi độ chi tiết (độ phân giải không gian thấp) để phân tích được điểm nóng và sự phơi nhiễm của cư dân với ô nhiễm không khí.

 

Nhóm nghiên cứu tại Trường Đại học Texas tại Austin đã phát triển một kỹ thuật mới để tạo ra các bản đồ ô nhiễm với độ phân giải không gian cao hơn 4-5 lần trạm cố định truyền thống  cho các đô thị lớn. Thiết bị được đặt trên các xe Google Street View với khả năng đo nhanh các chất ô nhiễm không khí tại từng tuyến phố trên một vùng 30 km2 tại Oakland, CA và cung cấp một tập dữ liệu ô nhiễm không khí đô thị có chất lượng và dung lượng cực lớn. Kết quả là các bản đồ hàng ngày của các chất NO, NO2, và BC tại độ phân giải 30 m được cung cấp. Các mẫu ô nhiễm liên tục thay đổi đáng kể trên quy mô nhỏ do các nguồn phát thải địa phương, lên đến 5-8 mẫu trong một tòa nhà. Vì sự khác nhau về chất lượng không khí địa phương ảnh hưởng sâu sắc đến sức khoẻ cộng đồng và môi trường, kết quả này có ý nghĩa quan trọng đối với cách đo và quản lý ô nhiễm không khí. Nếu được kiểm định chất lượng ở những nơi khác, cách tiếp cận đo lường này có thể dễ dàng mở rộng để giải quyết những thiếu sót về số liệu chất lượng không khí trên toàn thế giới….

Nguồn: http://pubs.acs.org/doi/abs/10.1021/acs.est.7b00891

Esri CityEngine 2017 giúp công tác quy hoạch đô thị hiệu quả hơn

Esri, công ty hàng đầu thế giới trong lĩnh vực phân tích không gian, vừa công bố phiên bản mới nhất của phần mềm Esri CityEngine 2017. Phiên bản mới của phần mềm mô hình 3D này giúp các chuyên gia thiết kế thành phố nhanh hơn và dễ dàng hơn.

Phiên bản này cung cấp các tính năng mới cho phép các nhà lập kế hoạch và kiến trúc sư so sánh các kịch bản khác nhau và trực quan hóa  bằng bảng điều khiển để xem cách mỗi kịch bản ảnh hưởng đến cùng một khu vực địa lý trong thời gian thực như thế nào.

Với các bản cập nhật trong phiên bản mới của CityEngine, người dùng có thể thực hiện các thay đổi đối với các tính năng cụ thể-chẳng hạn như điều chỉnh kích thước cửa sổ hoặc thêm ban công-trong mô hình mà không ảnh hưởng đến toàn bộ cấu trúc của tòa nhà. Trước đó, các nhà quy hoạch phải tạo ra hai dự án hoàn toàn khác nhau để hiểu được ảnh hưởng của những thay đổi thiết kế của tòa nhà đề xuất.

Ông Pascal Mueller, Giám đốc Trung tâm R & D Esri R & D Zurich AG –  nơi CityEngine được phát triển, phát biểu: “Với việc phát hành phiên bản CityEngine này, chúng tôi tập trung vào nhu cầu của các nhà quy hoạch đô thị, nhà thiết kế và kiến trúc sư. Chúng tôi tự hào giới thiệu một công cụ có đột phát mới cho việc lập kế hoạch dựa trên kịch bản trong một ứng dụng 3D. Ngoài ra, chúng tôi đã phát trieeren các công cụ mà người dùng yêu cầu đã lâu như các công cụ đo lường và tự động tạo ra các mô hình kiến trúc. Chúng tôi cải tiến hoàn toàn giao diện đồ họa người dùng, mang lại sự tươi mới, hiện đại của CityEngine và dễ sử dụng hơn. ”

CityEngine mới cũng giới thiệu việc tự động sinh theo quy trình các nội dung của 3D content. Điều này có nghĩa là các nhà lập kế hoạch có thể tự động tạo ra các tính năng thiết kế độc đáo trên các tòa nhà mà không cần thực hiện bằng tay. Tính năng này tiết kiệm thời gian mà các nhà quy hoạch và kiến trúc sư đô thị sẽ chi tiêu cho việc tạo ra chi tiết.

Dominik Tarolli, Giám đốc kinh doanh mảng thiết kế 3D của Esri cho biết: “Các thành phố thông minh của tương lai sẽ được thiết kế minh bạch hơn, và quá trình thiết kế sẽ gắn chặt với công dân. Với CityEngine 2017, các cảnh thành phố thông minh có thể được tạo ra trong vài phút và chia sẻ qua web hoặc ứng dụng ArcGIS 360 VR của Esri c chỉ bằng một cú nhấp chuột.”

Phiên bản mới nhất của CityEngine có trên các nền tảng Windows, Mac và Linux. Bản thử nghiệm miễn phí 30 ngày có thể được tải xuống tại go.esri.com/CE2017.

(nguồn BusinessWire)

 

Từ thông tin không gian đến hạ tầng kiến thức không gian

Trong 20 năm qua, một trong những mối quan tâm cơ bản của ngành khoa học không gian là tạo ra một hạ tầng cơ sở dữ liệu thông tin không gian. Vậy nó có quá dễ để thực hiện?  

Không! Dữ liệu không gian tốn kém lượng lớn tài nguyên để thu thập và lưu trữ.  Nhìn vào tương lai, những chuyên gia trong ngành đang bắt đầu lo lắng rằng một SDI không đủ để trích xuất toàn bộ giá trị dữ liệu. Dữ liệu và phương pháp được quản lý là một trong những chủ đề cơ bản trong cuộc họp gần đây của Trung tâm Nghiên cứu Hợp tác Thông tin Không gian ( CRCSI ). Tổ chức đang phát triển một “White Paper” đề xuất một thế hệ cơ sở hạ tầng không gian mới dựa trên giả thuyết rằng chúng ta không cần thông tin; Chúng ta cần kiến ​​thức. Sự khác biệt tinh tế giữa hai khái niệm này có thể là một trong những động lực chính của thế hệ tiếp theo.

“A new way of looking at datasets may be fundamental to the next step change in productivity.”

Hiện nay, các hạ tầng thông tin không gian luôn phải đối mặt với các yêu cầu phần cứng ngày một lớn hơn. Ổ đĩa cứng lớn hơn, bộ vi xử lý nhanh hơn,… Điều gì sẽ tạo ra sự khác biệt? Có lẽ một cách tiếp cận khác như quản lý tri thức không gian có thể là giải pháp. Ý tưởng về kiến trúc hạ tầng kiến thức không gian (SKI) mong muốn tối ưu khả năng sử dụng dữ liệu của SDI hiện tại. Kiến trúc SKI hướng tới các tập dữ liệu được chuẩn hóa với các tiêu chuẩn chung, dễ dàng sử dụng và tích hợp vào các ứng dụng hoặc hạ tầng không gian khác. Từ đó cho phép các mối quan hệ phức tạp tồn tại giữa bộ dữ liệu. Ý tưởng này tăng cường sự tin tưởng, đầy đủ của dữ liệu, giúp kiến thức không bị giới hạn nhờ xây dựng một cộng đồng chia sẻ dữ liệu.

Bạn nghĩ gì về ý tưởng này ?

Nguồn: Jon Fairall’s article on Spatial Knowledge Infrastructure, which first appeared in issue #87 of Position magazine.

Rezatech cung cấp công cụ nông nghiệp thông minh tới các trang trại sữa ở Harwell

Công ty dịch vụ truyền thông vệ tinh Rezatec hợp tác cùng với Đại học Reading, UK hiện tại đang cho ra mắt dịch vụ PASQUAL phục vụ giám sát và dự đoán chất lượng và năng suất đồng cỏ từ vệ tinh. Dự án PASQUAL nhằm phát triển một công cụ nông nghiệp thông minh dựa trên vệ tinh quan sát Trái đất.

Giám sát đồng cỏ từ vệ tinh

Công cụ này sẽ cho phép các trang trại sữa giám sát và dự đoán năng suất và chất lượng đồng cỏ. Việc dự đoán được cung cấp thông qua phân tích nhiều nguồn dữ liệu cảm biến từ xa bao gồm dữ liệu kênh nhìn thấy, radar và dữ liệu khí tượng, kết hợp với các kỹ thuật mô hình hóa và đồng hóa dữ liệu được phát triển tại Đại học Reading.

Các thử nghiệm hiện tại đang được thực hiện bởi Đại học Reading trong khoảng thời gian dự kiến 2 năm tại các khu vực nghiên cứu. Công cụ sẽ được cung cấp tới người dùng qua nền tảng địa không gian web của Rezatec. Nền tảng này sẽ được nâng cấp và mở rộng để hỗ trợ luồng dữ liệu stream và cài đặt các mô hình tăng trưởng theo kích thước của cỏ nhằm tạo ra một công cụ hỗ trợ ra quyết định cho các trang trại sữa.

Các nghiên cứu hoặc công nghệ hiện tại trong lĩnh vực này là hiếm. Đa số hiện tại đều tập trung vào chỉ số thực vật và có thể dẫn tới kết quả không tin cậy và không chính xác. Phương pháp đề xuất nhằm để cung cấp sản phẩm có độ tin cậy hơn nhiều. Hơn nữa, đa số đối thủ cạnh tranh sử dụng chỉ số thực vật đều tập trung vào cây lương thực mà không phải đồng cỏ, bất kể năng suất sữa toàn cầu đạt 700 triệu tấn.

Dự án này chứa đựng sáng tạo về cả hai mặt thương mại và công nghệ. Nó phát triển các công nghệ và kỹ thuật hiện đại để dự đoán năng suất và chất lượng cỏ ở gần thời gian thực. Đại học Reading sẽ phát triển một mô hình mới để dự đoán năng suất và sản lượng cỏ. Bên cạnh dữ liệu cục bộ thu thập từ trang trại, thực địa và dữ liệu thời tiết, mô hình mới cũng truy cập trực tiếp đến nhiều nguồn dữ liệu cảm biến từ xa, trong đó có dữ liệu radar thích hợp cho nhiệm vụ giám sát ở các khu vực thường xuyên bị che phủ bởi mây như Anh.

Nền tảng của Rezatec được thiết kế để cung cấp các dịch vụ trực quan hóa dữ liệu hiệu năng cao, phân tích và hỗ trợ ra quyết định đến người dùng cuối và có khả năng mở rộng cao. Nó sẽ hỗ trợ nhiều mục đích sử dụng tại Anh, Châu Âu và trên toàn cầu.

Nguồn: http://geospatialworld.net

Bản đồ các vệ tinh trên quỹ đạo

Có khoảng 1.400 vệ tinh trong không gian quay quanh Trái đất và theo dõi hành tinh của chúng ta. Không gian xung quanh trái đất đang dày đặc các vệ tinh nhân tạo, rác vũ trụ. Theo NASA, có hơn 500.000 mảnh vụn trong gian trong không gian quanh trái đất. Hiện nay, mạng lưới giám sát Vũ trụ của Bộ Quốc Phòng Hoa kỳ thường xuyên theo dõi các vật thể quanh Trái đất bao gôm các vật có đường kinh 5cm ở quỹ đạo thấp và các vật thể có đường kính khoảng 1m ở quỹ đạo địa chấn.

Esri đã đưa ra một bản đồ thú vị để theo dõi gần như tất cả các vệ tinh quay quanh Trái đất. Bản đồ vệ tinh là một ứng dụng web được phát triển bởi Phòng Thí nghiệm Esri‘s Prototype Lab sử dụng ArcGIS API for JavaScript v4.0. Bản đồ được phát triển bởi Richie Carmichael, một người có thâm niên làm việc 13 năm tại Esri và tại Esri‘s Prototype Lab.

Bản đồ hiển thị tất cả các vệ tinh do con người tạo ra và cũng bao gồm các mảnh vụn từ các vụ va chạm trong không gian không gian và các tên lửa. Các vật thể được hiện thị với các mã màu theo loại vật thể và có các nút và thanh trượt ở phía bên tay trái của ứng dụng cho phép người dùng xem chi tiết về vệ tinh – ngày ra mắt, quốc gia, mục đích và các thuộc tính khác.

Có thể xem chi tiết bản đồ vệ tinh ở tại link sau: https://maps.esri.com/rc/sat2/index.html

 

OGC India Plugfest focuses on open data standardization and its use in smart solutions

We get enormous location data from various sources like mobile devices, stationary sensors, airborne imaging systems and modeling applications. The explosion in location data offers great potential. Integration of human, physical and digital systems operating in the built environment can improve governance, business, and quality of life.

However, we often see location data is locked up in ad-hoc and proprietary encoding and interfaces.

Location services can be made accessible to diverse applications. Applications can be made to discover access, evaluate, compare, aggregate and fuse diverse data. Open standards make this possible. It is on these lines that OGC India organized Indian OGC Interoperability Plugfest on June 21, which was a review of the 2015 Plugfest.

Four companies participated in the plugfest – Hexagon Geospatial, Rolta, ESRI India and SkyMapGlobal. The main agenda was the importance of standardization of open data and its importance in smart solutions for smart cities.

During the OGC India Forum Meeting held in NSDI on November 3, 2015, a decision was taken to undertake an ‘OGC Plugfest’ in the area of Smart Cities, a key mission of Government of India.

Scott Simmons, Executive Director, Standards Program at OGC, who participated in the meeting, had outlined the process involved in undertaking a Plugfest, on the lines of Plugfests undertaken in the past by New Zealand Government in May 2012 and theOrdnance Survey UK in Sept 2013.

As per   practice, OGC Interoperability Plugfest, Testbed and Pilot initiatives are always funded by OGC members who  wish to accelerate the pace at which interoperability is developed and implemented through standards in the marketplace. In this instance, a decision was taken at OGC  to  provide  funding from the OGC India Foundation and OGC staff resources to support this Plugfest initiative, hosted at NSDI  under DST  ( OGC Principal member),  with the expectation that decision makers in India would see the benefits of funding similar OGC initiatives in the future to rapidly advance their interoperability requirements, as undertaken globally .

What is the future of Big Data, Automation & Robotics, IoT and Cloud in Geospatial Industry?

Cloud is expected to have higher growth than Bigdata, IoT or Automation in the geospatial industry by 2020.

Understanding the extensive technology advancement happening around in all the industries is essential for a business to sustain. The innovation revolves mostly around IoT, Bigdata, Cloud and Robotics which shapes up the coming future. Although Bigdata, IoT, Cloud and Automation & Robotics are very much hyped already we need to understand why it drives the geospatial industry. And what is the future of these technologies and how will these technologies shape up in the coming years? The answer to the questions is encompassed in this blog.

The driving factors and key to future of geospatial industry needs to be analysed and this information is very much crucial to sustain in the coming years. The existing businesses need to grow up to the next level in the value chain as the processes are becoming more automatic and business direction is changing dynamically.

The Global Geospatial Industry Outlook, an exclusive study by Geospatial Media and Communications studies the technologies driving geospatial industry. The report explains how geospatial technology converges with Bigdata, Cloud, IoT and Automation and discusses the changing geospatial technology landscape. The study also ranks 50 economies on the basis of their geospatial preparedness.

Cloud

Cloud enables people to access any information from anywhere in the world. Everything is connected. All the information is available online and data transfer or the communication also has to happen which is brought about through “Cloud”. As per the research, future of cloud is growing steadily. Cloud ensures better delivery of the geospatial solutions.  The adoption of open source software, spatial analytics tools, etc. in the geospatial community is constantly increasing recently and this is driven by the enhanced infrastructure brought about by cloud. As the number of users of cloud in geospatial industry has increased and in future also it is projected to increase steadily to have a 70% adoption level. Almost three fourth of the business is forecasted to shift with the intervention of cloud. This indeed is a big transition, so the business community which is still delivering software through offline mode should direct their resources towards the cloud adoption.

IoT

IoT uses cloud to deliver the solutions. All the resources are in a connected environment and the resources uses the cloud platform to deliver the solutions. Between the years of 2012 and 2016, the market of IoT has seen a constant growth and in future 60% of geospatial solutions will have the convention of IoT. The driving technologies of today will be conventional technologies of tomorrow. By 2020, there are 50Bn devices are expected to be connected. So there is a constant growth in the market and the future is also projected to have a heavy increase.

Big Data

Big data in the geospatial industry came in the year of 2012 . The intrusion of Bigdata in to the geospatial industry was less than 10% in 2012, which saw a steady growth in the consecutive years. As the operations started becoming more and more complex there were a lot of data being generated and all these data need to be analysed through some means and technique. Big Data helped in crunching the complex data into simple and understandable results. Further over the 2015-16, Bigdata saw steady increase in adoption within geospatial industry. The future projection of Bigdata is that it is seen to grow further nearly up to 50% of the adoption back in 2012.

Automation & Robotics

As the process is becoming more and more automatic the human intervention is reducing day by day. The projection of automation & robotics is rising towards 2020 is less than Bigdata, Cloud and IoT. There is a slight increase between the years 2012 and 2013 and a sudden drop towards 2014. In 2015, the Automation & Robotics industry is revamping and growing further towards 2020. In 2016, it has the highest adoption about of 15% and is expected to be nearly 40% in 2020. This substantiates the growing adoption of the automation & robotics in the geospatial industry.

All our “The hyped technologies” of IoT, BigData, Cloud and Automation & Robotics are driving the geospatial technology currently and expected to drive the industry in future as well but at a much bigger pace and at a larger level. The future of geospatial technology is destined by the driving technologies of IoT, Bigdata, Cloud, and Automation & Robotics.

(Source: Geospatial World)

 

Role of IoT in enabling smart cities

As there is a lot of talk going around  smart cities, it was only natural that IoT or Internet of Things, which is considered to be an important component for smart cities across the world, to be integrated in the government’s flagship smart cities mission project, to make them more intelligent and self-reliant. And today, we are seeing that IoT has become an integral part of smart cities, so much so that for each one of our needs, the developers want to offer an IoT solution.

Role of geospatial technologies in IoT

Now drawing the connection between geospatial technologies and IoT, this study explains that in a network of billions of connected devices, to identify and operate one device remotely would be very challenging unless the device knows its geographical location on Earth. Every element that will be connected in this network must identify their unique identification, location and functionalities in order to function properly.

How IoT is making a difference?

The concept of IoT is being developed to make the internet even more immersive and pervasive. So that a wide variety of devices such as, home appliances, surveillance cameras, monitoring sensors, actuators, displays, vehicles, and so on, can be fostered under one network of connected devices.

Employing IoT will enable the development of a number of applications that make use of potentially enormous amount and variety of data generated by such objects to provide new services to citizens, companies, and public administrations. For instance, when we talk about smart cities, we don’t think of cities that have the word – smart, only in their name, instead, we think of cities that work from to their own intelligence.

For a better understanding of how it works, let’s say that you live in a smart city and you are planning to go out for dinner. But first, you want to buy that dress you were checking out last week at the mall near you. So you pick up your phone and you log on to that fashion store’s website and you choose the dress, select the size, pay for the bill, and order the dress to be delivered to your home. The website’s server immediately takes a note of your request and sends an alert to the store-staff about the order. The staff immediately processes the order and sends out a drone to deliver your package. Then the UAV flying across the city, lands in your apartment’s balcony and drops the package and returns to its owner. Immediately, you get a notification on your phone saying that the package has been delivered. And you go check in balcony where it’s waiting for you. Similarly, there can be numerous example where the devices are connected to each other, working in synergy to facilitate your needs.

The US city, Denver is a better example of this. Located south of Denver International Airport, the futuristic neighborhood of Pena Station Next began getting smart LED street lights last month. The technological implementation of IoT in Denver is being planned by Panasonic, where the company has covered the parking with solar panels, plus a storage microgrid is almost done. The area is being developed for the future’s autonomous shuttles to transport residents to the nearby RTD rail stop, shops and restaurants.

Getting developed by Panasonic, the city – Denver was chosen to create a smart city lab and test different technologies. Click here to see some of the future technologies that may show up in Pena Station Next.

The future of IoT

According to a report, many industry experts and excited consumers have pegged the IoT as the next industrial revolution. Whereas, according to some, the power of IoT is applied to more technology use cases – keep it grounded and real. Now it’s a data first world long-term as we collect the data and determine what it can tell us about interoperability, cross correlation benefits. The web of devices is correlating – triangulating disparate data to obtain unforeseen insights.

Based on an analysis done by management consulting firm, McKinsey, the total market size of IoT that was up to $900M in 2015, is expected to rise by $3.7B in 2020 attaining a 32.6% CAGR.

(Source: Geospatial World)

What is the difference between AI, machine learning and deep learning?

You can think of artificial intelligence (AI), machine learning and deep learning as a set of a matryoshka doll, also known as a Russian nesting doll. Deep learning is a subset of machine learning, which is a subset of AI.

Artificial intelligence is any computer program that does something smart. It can be a pile of if-then statements or a complex statistical model. AI can refer to anything from a computer program playing a game of chess, to a voice-recognition system like Amazon’s Alexa interpreting and responding to speech. The technology can broadly be categorized into three groups — Narrow AI, artificial general intelligence (AGI), and superintelligent AI.

IBM’s Deep Blue, which beat chess grandmaster Garry Kasparov at the game in 1996, or Google DeepMind’s AlphaGo, which in 2016 beat Lee Sedol at Go, are examples of narrow AI — AI that is skilled at one specific task. This is different from artificial general intelligence (AGI), which is AI that is considered human-level and can perform a range of tasks. Superintelligent AI takes things a step further. As Nick Bostrom describes it, this is “an intellect that is much smarter than the best human brains in practically every field, including scientific creativity, general wisdom, and social skills.” In other words, it is when the machines have outfoxed us.

Machine learning is a subset of AI. The theory is simple, machines take data and ‘learn’ for themselves. It is currently the most promising tool in the AI kit for businesses. Machine learning systems can quickly apply knowledge and training from large data sets to excel at facial recognition, speech recognition, object recognition, translation, and many other tasks. Unlike hand-coding a software program with specific instructions to complete a task, machine learning allows a system to learn to recognize patterns on its own and make predictions.

While Deep Blue and DeepMind are both types of AI, Deep Blue was rule-based, dependent on programming — so it was not a form of machine learning. DeepMind, on the other hand — beat the world champion in Go by training itself on a large data set of expert moves.

That is, all machine learning counts as AI, but not all AI counts as machine learning.

Deep learning is a subset of machine learning. Deep artificial neural networks are a set of algorithms setting new records in accuracy for many important problems, such as image recognition, sound recognition, recommender systems, etc.

It uses some machine learning techniques to solve real-world problems by tapping into neural networks that simulate human decision-making. Deep learning can be expensive and requires massive datasets to train itself on. That’s because there are a huge number of parameters that need to be understood by a learning algorithm, which can initially produce a lot of false-positives. For instance, a deep learning algorithm could be instructed to ‘learn’ what a dog looks like. It would take a very massive dataset of images for it to understand the minor details that distinguish a dog from a wolf or a fox.

Deep learning is part of DeepMind’s notorious AlphaGo algorithm, which beat the former world champion Lee Sedol in 4 out of 5 games of Go using deep learning in early 2016. The way the deep learning system worked was by combining “Monte-Carlo tree search with deep neural networks that have been trained by supervised learning, from human expert games, and by reinforcement learning from games of self-play,” according to Google.

(source: Geospatial World)