Neuro Encoding – Simple Model

response model (spike tạo bởi 1 neuron) cách xác suất quan sát được 1 spike trong 1 khoảng tg xác định hay là tỉ lệ bắn tín hiệu .

P ( response / stimulus) -> denote r(t) .

r(t) = Φ s(t)

capture

giả sử r(t) phụ thuộc vào s(t) trong những thông tin trước đó và những thông tin hiện tại.

r(t) = ∑ s(t-k) * f(k)    <r(t) sẽ chịu tác động từ k thời điểm trc đó nhân với trọng số f(k).

ta có thể viết lại công thức như sau:

captur2e  (convolution formular)

tập f sẽ là 1 tập lọc  tuyến tính của input

capture

có nhiều stimulus nên ta cần chọn ra những stimulus quan trọng nhất.

P(responses | stimulus) –> P(responses | s1 , s2, s3,…)

common method use is gaussian white noise

capture

Khi quan sát ta gom các tín hiệu trigger lại và phân tích mô hình tổng quát.

capture

cách xác định input/output function

Capture.JPG

Capture.JPG

 

Neuron code and neuron encoding.

Mắt chúng ta giúp ta hiểu hơn về cách mà não xử lí. Võng mạc là nơi hấp thụ ánh sáng và truyền tải, chuyển đổi tín hiệu mà ta quan sát được thành tín hiệu điện gửi về não bộ.

Selection_001.png

Võng mạc được tách ra khỏi mắt và đặt lên 1 dãy điện cực . nó được đặt trong 1 màn lỏng mô phỏng mắt chúng ta để giữ nó hoạt động

Selection_003.png

Chiếu 1 đoạn phim lên để xem cách nó hoạt động. (ảnh bên trái là phóng to).

Và sau đây là tín hiệu thu được khi play 1 đoạn video qua thí nghiệm trên ( tín hiệu phóng ra từ các cell khác nhau khi thời gian tăng dần).

Selection_004.png

Ta có 1 số định nghĩa:

Encoding: cách 1 kích thích tạo ra các mẫu phản ứng. P(response / stimulus)

Decoding: các phản ứng cho ta biết gì về kích thích. P(stimulus / response).

response là gì, stim là gì, mối quan hệ chúng là gì.

Mô hình cơ bản:

Selection_005.png

ví dụ dưới đây: < biểu đồ thể hiện sự ảnh hướng của góc xoay của tín hiệu >

Selection_006.png

Ta có thể tưởng tượng cách mà não bộ hoat động trong trường hợp tín hiệu từ mắt:

Selection_007.png

ở võng mạc -> V1 -> V4->higher region in brain -> a house -> specific house(white house).

 

Neuron-Brain-biology

neuron.png

Neuron: “a leaky bag charged liquid”.

Đặc tính điện:

Thông tin neuron được bao trong màng tế bào (membrane). Mỗi màng tb luôn giữ 1 lượng chênh lệch điện nhất định so với bên ngoài (-70mV) dựa vào các ống bơm ion: cho phép Na+ ra ngoài và cho K+ đi vào.

Ionic gate: có 3 loại để kích hoạt các cổng này: voltage, chemical, mechanical (áp suất). Tùy vào loại kích hoạt mà cổng sẽ kích hoạt để dưa vào hoặc thải phân tử ra.

ionic_gated.jpg  synapse.jpg

các cell tiếp xúc với nhau thông qua synapse.

Ví dụ khi 1 cell nhận kích thích (spike) từ cell khác làm cho chemically-gated mở làm thay đổi membrane potential (Hiệu điện thế giữa bên ngoài và trong cell) điều này làm cho các cổng voltage-gated đóng hoặc mở  gây ra sự tăng hoặc giảm điện trong tg rất nhanh.

Depolarization ( + ) hoặc  hyperpolarization ( – ) . Depolarization đủ mạnh sẽ tạo nên spike hay action potential.

depolarization.jpg

Action wiring: Nhờ vào myelin (làm cho dòng điện không ra ngoài axon) giúp cho việc truyền dẫn nhanh hơn rất nhiều.

Synapse: nơi giao tiếp giữa 2 neuron. có 2 loại chemical (hình bên dưới) và electrical.

chemsynapse.jpg

Synapse là nơi chứa thông tin, memory và học của chúng ta.

Đầu tiên là cách học : khi neuron A lăp đi lặp lại việc tham gia vào quá trình kích neuron B thì synapse giữa A và B sẽ càng ngày càng mạnh (LTP – long term potential) và ngược lại là LTD (long term depression)

learnltd_ldpd.jpg

LTP/LTD phụ thuộc vào tương quan thời gian giữa input và output spike.

 

Computational neuroscience

Mục tiêu giải thích cách não tạo ra hành vi.

Theo P.Dayan và L. Abbott: là công cụ và phương thức giúp mô tả những gì hệ thần kinh làm, đánh giá chức năng và hiểu cách tại sao nó hoạt động theo 1 cách cụ thể.

Descriptive Model( What) – Mechanistic Model (How) – Interpretive Model (Why).

Receptive Field ( Vùng thụ cảm): đặc trưng cụ thể của 1 vùng giác quan kích thích mà tạo ra tín hiệu manh từ cell.

ví dụ: điểm sáng mà bật lên tại 1 vùng đặc trưng trên retina (võng mạc).

Thanh ánh sáng mà bật lên tại vùng đặc trưng có hướng trên võng mạc.

untitled

Mô hình của RF: ví dụ như trên võng mạc con người ảnh cây bút sẽ lật ngc và in lên màng võng mạc ở đây các cell trên retinal sẽ convert và đưa về vùng xử lý khác từng cell này chỉ phản ứng khi có thông tin tại 1 vị trí cố đinh của nó (nếu nằm ngoài cell sẽ không phản ứng).

 

untitle4

LGN: vùng trung gian giữa đường truyền dữ liệu từ retina-> V1.

Primary Visual Cortex:1 vùng ở vỏ não.

untitled2

untitled3

Oriented RF:

untitled5

Khi di chuyển từ LGN -> V1 cell ở LGN có dạng center-surrounded và V1 có oriented RF.

Nhiều cell ở LGN là input cho 1 cell ở V1.

Untitle3d.jpg

và đây là cách RF ở V1 được tạo nên (nhiều cells ở LGN xếp thành 1 cell ở V1)

Untitled4.jpg

Tại sao RF ở V1 lại form theo hình dạng như v:

Cách hình thành như vậy có lợi ích gì.

Giả sử mục tiêu là biểu diễn ảnh 1 cách chân thực và hiệu quả nhất sử dụng các RF của V1 như trên.  Cho ảnh I ta dựng lại I bằng các RF như sau : I’= sum(Rf(i) * w(i)). w(i) là weight của RF thứ i.

Untitled3.png

vậy thì RF(i) phải như thế nào để tổng bình phương lỗi  giữa I và I’ minimized và càng độc lập nhất.

Ta sẽ test trên nhưng bức ảnh ngẫu nhiên và chọn RF(i) ngẫu nhiêu sau đó chay efficient coding(sparse coding, ICA, predictive coding) algo trên những phần của ảnh.

Kết quả:

Untitle2d3.jpg

khớp với những gì ta dự đoán. Não bộ cố gắng tối ưu việc biễu diễn ảnh bằng cách tạo ra RF có hình dạng như ta đã thấy.

 

Machine learning course by MCDonnell

Week 1 – Intro.

Three types of machine learning: supervised, unsupervised and Reinforcement.

Supervised Learning: predict output when given an input vector

Reinforcement: Learn to select an action to max payoff.

Unsupervised Learning: Discover a good internal representation of the input.

Supervised (Regression ,Classification):

  • Start by choosing a model-class: y=f(x) then adjust the params to reduce the discrepancy between target and actual output.

Reinforcement: output is an action or sequence of actions and the only supervisory signal is an occasional scalar reward. Goal is to max the sum or future rewards.

it’s hard due to delayed reward so hard to know where we went right or wrong, scalar rewards does not supply much info

Unsupervised Learning (clustering):

  • Goal to provide a compact represent of input (PCA).
  • Provide economical high-dimensional represent input in terms of learned features.
  • finds sensible cluster in input.

Week 2 – Neural network

Types of neural network.

  1. Feed-foward nn: first layer is input and last layer is output. IF there’s more than 1 hidden layer then it’s deep nn.1 direction.
  2. Recurrent network: these have cycles in the graph,sometimes can go back to where you start. can remember info in their hidden state for a long time.
  3. Symmetrically connected network: like recurrent network but the connections btw units are symmetrical (same weights in both direction).

 

Thuật toán P$ – Nhận dạng gesture bằng cách so sánh cấu trúc hình học

Tác giả:

Radu-Daniel Vatavu, University Stefan cel Mare of Suceava
Lisa Anthony, University of Maryland—Baltimore County
Jacob O. Wobbrock, University of Washington

Tóm tắt:

Thuật toán nhận dạng P$ là phương pháp nhận dạng dựa theo so sánh mẫu hình học khớp với nhau.Khi so sánh 2 không gian điểm, $P giải bài toán phân công cổ điển giữa 2 đồ thị  bằng cách dùng xấp xỉ thuật toán Hungary.

Ví dụ bên dưới biểu diễn giao diện 1 ứng dụng sử dụng $P để nhận dạng các mẫu vẽ so với các mẫu có sẵn.

p

Các bước thuật toán:

  1. Chuẩn hóa: đưa các tập điểm trên không gian điểm về cùng 1 dạng, cùng kích thước, cùng góc xoay và cùng số lượng điểm

p-resample.png

a) Resample tập điểm: cố gắng dùng 1 số lượng điểm cố định để biểu diễn lại cấu trúc của gesture. ví dụ như Fig 4 ở trên 1 ngôi sao có thể biểu diễn lại bằng nhiều bộ điểm có số lượng điểm khác nhau ( 32, 64, 128,…).

a.1) Tính chiều dài của path dựa theo khoảng cách euclide của từng cặp điểm liên tiếp nhau.

path_length

a.2) Dựa theo khoảng cách vừa tính được chia cho N-1 ta có khoảng cách của mỗi đoạn ( từ 1 điểm đến 1 điểm tiếp theo) gọi là I bây giờ ta xét nếu từ 1 điểm đến điểm khác mà bước quá I khi đó ta sẽ chèn 1 điểm mới vào giữa và update lại.

 

resample.jpg

b) Scale:  Điều chỉnh tỉ lệ của tập điểm về khuôn hình vuông.

 

scale.jpg

c)  Translate  về gốc tọa độ O: Dời toàn bộ điểm vừa scale về  gốc tọa độ.

translate2Zero

 

translate_zero.jpg
2. Bài toán phân chia việc Hungary:
Một bộ điểm cần tìm ra khoảng cách tốt nhất giữa (C) và (T) từ n! cách sắp xếp có thể có. Bài toán này có thể liên tưởng đến bài toán phân chia công việc:
Có n người và n việc mà chúng ta biết chi phí cho việc gán người i vào công việc j. Tìm ra cách ghép có chi phí là nhỏ nhất sao cho mọi người đều nhận được 1 việc.
Bài toán trên có thể dùng thuật toán Hungary nhưng chi phí của thuật toán này là O(n3) nên cần có 1 cách để giảm chi phí.
Ta sử dụng heuristic để ghép điểm và gọi là GREDDY-X:
Cho mỗi điểm trong (C(i)) tìm điểm gần nhất trong tập điểm thứ 2 mà chưa dc ghép khi C(i) được ghép thì tiếp tục với C(i+1) cho đến khi hết tất cả các điểm trong C. Sau khi chạy xong heuristic này ta thấy rằng kết quả bị ảnh hưởng bởi thứ tự chọn điểm xuất phát do đó ta chạy thuật toán nhiều lần với điểm xuất phát khác nhau và trả về kết quả nhỏ nhất
Greedy2
Số lần chạy phụ thuộc vào ∈. ∈ = 0 thuật toán chạy 1 lần. ∈ = 1 thuật toán chạy n lần. ∈<1 thuât toán chạy n^∈ < n. ( ∈> 1 không có ý nghĩa vì nó tốn quá nhiều thoi gian).
Thêm 1 chú là với những điểm đầu tiên khi chạy thuật toán thì số điểm để so sánh là nhiều hơn so với những điểm khi gần kết thúc vòng chạy hay mức tin cậy cao hơn do đó ta thêm 1 tham số trọng số  W và công thức được sửa lại như sau:
Greedy5.jpg
với w(i) được tính như sau:
Greedy5_weight.jpg
Kết quả của GREDDY-X ảnh hưởng bới hướng ghép nên kết quả cuối cùng cần tính là
Greedy5_final.jpg.
3. Psuedocode:
mainpsuedo.jpg
step1.jpg
cloud_dist.jpg
(Cont.)