BM ogłosił znaczne postępy w procesie stworzenia systemu komputerowego, który naśladuje procesy mózgu odpowiedzialne za czucie, percepcję, działanie, wzajemne oddziaływanie i poznanie oraz równocześnie dorównujący niskiemu zużyciu energii i małym rozmiarom ludzkiego mózgu.
Kognitywny system komputerowy, nad którym pracuje dział IBM Research, osiągnął wyraźne postępy
w zakresie symulacji kory mózgowej na dużą skalę jak również nowego algorytmu, który syntetyzuje dane neurologiczne. Są to dwa kamienie milowe na drodze do zbudowania kognitywnego procesora komputerowego.
BlueMatter, nowy algorytm stworzony we współpracy z Uniwersytetem Stanford, wykorzystuje architekturę superkomputerową IBM BlueGene, aby nieinwazyjnie zmierzyć oraz oznaczyć połączenia pomiędzy ośrodkami korowymi i podkorowymi w ludzkim mózgu wykorzystując obrazowanie dyfuzyjne rezonansu magnetycznego. Oznaczenie schematu połączeń elektrycznych mózgu jest kluczowe dla poznania jego rozległej sieci komunikacyjnej oraz zrozumienia jak przedstawia i przetwarza informacje.
Naukowcy z IBM Research w Almaden we współpracy z pracownikami Lawrence Berkeley National Lab, przeprowadzili pierwszą symulację kory mózgu w czasie rzeczywistym, która przewyższa skalę symulacji kory mózgowej kota i zawiera 1 miliard aktywnych neuronów oraz 10 miliardów pojedynczych uczących się synaps.
Te udoskonalenia zapewnią unikalny warsztat pracy dla zbadania obliczeniowych zasobów mózgu
oraz posuną pracę zespołu w kierunku osiągnięcia celu, jakim jest zbudowanie zwartego, potrzebującego niewiele mocy modelu synaptycznego wykorzystującego nanotechnologię oraz postępy w pamięci zmiennofazowej i magnetyczne złącza tunelowe. Praca zespołu ma za zadanie przełamać szablon tradycyjnej informatyki aby spełnić wymogi systemowe korzystającego z najnowszych narzędzi oraz oplecionego siecią połączeń świata jutra.
Ilość cyfrowych danych tworzonych przez człowieka ciągle rośnie, a świat staje się coraz bardziej wzajemnie połączony. W takiej rzeczywistości pojawia się potrzeba nowych typów systemów komputerowych – nasyconych nową formą inteligencji, która może wykryć trudne do zidentyfikowania wzorce w silnie zróżnicowanych typach danych, zarówno cyfrowych jak i sensorycznych; zanalizować oraz zintegrować informacje w czasie rzeczywistym w sposób zależny od kontekstu; oraz poradzić sobie z dwuznacznością, którą odnajdujemy w rzeczywistym środowisku.
Biznes będzie wielozakresowo musiał monitorować, priorytetyzować, adaptować i podejmować błyskawiczne decyzje bazując na stale rosnących strumieniach kluczowych danych oraz informacji. Komputer kognitywny mógłby szybko i dokładnie wykorzystać różne dane tej złożonej układanki, biorąc pod uwagę kontekst i poprzednie doświadczenia, co mogłoby pomóc decydentom podjąć właściwe decyzje.
„Uczenie się od mózgu to atrakcyjny sposób przezwyciężenia wyzwań mocy i gęstości stojącymi
przed dzisiejszym światem informatycznym”, mówi Krzysztof Bulaszewski, Dyrektor Operacyjny i Członek Zarządu IBM Polska. „Podczas gdy światy cyfrowe i fizyczne wciąż się łączą, a informatyka staje się coraz bardziej zakorzeniona w naszym codziennym życiu, priorytetową sprawą jest stworzenie o wiele inteligentniejszego systemu komputerowego, który pomoże nam zrozumieć przepastną liczbę informacji, które są dla coraz ważniejsze, w podobny sposób do tego, jak nasze mózgi błyskawicznie interpretują oraz działają przy złożonych zadaniach.”
Aby przeprowadzić pierwszą, zrealizowaną niemal w czasie rzeczywistym, symulację kory mózgowej, która przewyższa skalę symulacji kory mózgowej kota, zespół zbudował symulator kory, który wykorzystuje wiele innowacji obliczeniowych, pamięciowych i komunikacyjnych oraz dodatkowo wyrafinowane biologiczne detale ze sfery neuropsychologii i neuroanatomii. To naukowe narzędzie, podobne do linearnego akceleratora lub mikroskopu elektronowego, jest istotnym instrumentem wykorzystywanym do testowań hipotez związanych z badaniem struktur mózgu, jego dynamiki i funkcji. Symulacja została przeprowadzona z wykorzystaniem symulatora kory mózgowej na superkomputerze Dawn klasy Blue Gene/P znajdującym się Lawrence Livermore National Lab, dysponującym 147,456 procesorami i 144 terabajtami pamięci operacyjnej.
Dzięki połączeniu z symulatorem kory, algorytm pozwala naukowcom eksperymentować z różnymi matematycznymi hipotezami na temat funkcji i struktury mózgu oraz badać, jak struktura wpływa na samo funkcjonowanie mózgu. Odbywa się to w trakcie prac nad odkryciem mikro i makro obwodów obliczeniowych w mózgu.
Po zakończonej sukcesem Fazie 0, IBM i jego partnerzy uniwersyteccy otrzymali dodatkowe fundusze w wysokości 16,1 miliona dolarów od rządowej agencji DARPA (Defence Advanced Research Projects Agency) na Fazę 1 inicjatywy SyNAPSE (Systems of Neuromorphic Adaptive Plastic Scalable Electronics). Ta faza badań skupi się na komponentach, architekturze symulującej mózg oraz symulacjach w celu budowy prototypowego procesora. Długoterminowa misja kognitywnej informatyki IBM ma na celu odkryć i zademonstrować algorytmy bazujące na funkcjonowaniu mózgu i dostarczać energooszczędne, złożone komputery kognitywne, które osiągną poziom inteligencji ssaków i wykorzystają znacznie mniej energii niż dzisiejsze systemy komputerowe. Światowej klasy zespół tworzą badacze z kilku rozrzuconych po świecie centrów IBM oraz naukowcy ze Stanford University, University of Wisconsin-Madison, Cornell University, Columbia University Medical Center i University of California-Merced.
“Celem programu SyNAPSE jest stworzenie nowej klasy układów elektronicznych, które będą w stanie zrozumieć, zaadaptować i odpowiadać na informacje ze środowiska w sposób przekraczający możliwości tradycyjnego przetwarzania danych, łącznie z wykorzystaniem całkowicie odmiennych zdolności mózgu biologicznego” twierdzi menedżer programu DARPA Todd Hylton.
Współczesne systemy przetwarzania danych oparte są na wbudowanych w pamięć modelach, tradycyjnie zintegrowanych z cyfrowymi, synchronicznymi, seryjnymi, scentralizowanymi, szybkimi, układowymi obwodami ogólnego zastosowania, ze ścisłym adresowaniem pamięci, co powoduje niespecyficzne nadpisywanie danych i narzuca rozdzielność pomiędzy przetwarzaniem danych, a samymi danymi. W przeciwieństwie do tego obliczeniowe systemy poznawcze – takie jak mózg, używają równoległych jednostek obliczeniowych, neuronów i synaps wbudowanych w zróżnicowaną, analogowo-cyfrową, asynchroniczną, równoległą, rozpowszechnioną, wolną, modyfikowalną, wyspecjalizowaną, oporną na błędy strukturę biologiczną z niejawnym adresowaniem pamięci, uaktualnianą jedynie w sytuacji, gdy informacja się zmienia, co zaciera granicę pomiędzy procesem przetwarzania a danymi.
Źródło: IBM Polska