agen rasional

Post on 08-Feb-2016

74 Views

Category:

Documents

1 Downloads

Preview:

Click to see full reader

TRANSCRIPT

HO-2 KTL401 Kecerdasan Buatan

Intelligent Agents

Opim S Sitompul

2

Outline

Agen dan lingkungan

Rasionalitas

PEAS (Performance measure, Environment,

Actuators, Sensors)

Jenis-jenis Lingkungan

Jenis-jenis Agen

3

Agent

Agent adalah sesuatu yang dapat mengesan (perceiving) lingkungan (environment) nya melalui sensors dan bertindak (acting) terhadap lingkungan tersebut melalui actuators

Agen manusia: mata, telinga, dan organ tubuh lain untuk sensor; tangan, kaki, mulut, dan bagian tubuh lain untuk actuators

Agen robotik: kamera dan infrared range finders untuk sensors; berbagai macam motor untuk actuators

4

Agent dan lingkungan

Fungsi agen memetakan dari sejarah persepsi ke

dalam tindakan (actions):

[f: P* A]

Program agen berjalan pada arsitektur fisik untuk

menghasilkan f

agen = arsitektur + program

5

Vacuum-cleaner world

Percepts: location and contents, e.g.,

[A,Dirty]

Actions: Left, Right, Suck

6

A vacuum-cleaner agent

Sekuen Persepsi Tindakan

[A, Clean] Right

[A, Dirty] Suck

[B, Clean] Left

[B, Dirty] Suck

[A, Clean], [A, Clean] Right

[A, Clean], [A, Dirty] Suck

… …

[A, Clean], [A, Clean], [A, Clean] Right

[A, Clean], [A, Clean], [A, Dirty] Suck

… …

A vacuum-cleaner agent

Pertanyaan: Bagaimana cara yang benar untuk mengisi tabel

tersebut?

Apa yang membuat satu agen itu baik atau buruk,

pintar atau bodoh?

Keadaan suatu agen dimaksudkan sebagai alat

untuk menganalisis sistem, bukan karakterisasi

mutlak yang membagi dunia menjadi agen dan

non-agen.

7

Perilaku baik: konsep rasionalitas

Agen rasional adalah sesuatu yang

melakukan hal yang benar—secara konseptual,

setiap entri tabel bagi fungsi agen terisi dengan

benar.

Apa arti melakukan hal yang benar?

Jawab: dengan mempertimbangkan

konsekwensi dari perilaku si agen.

8

Perilaku baik: konsep rasionalitas

Ketika satu agen diletakkan dalam sebuah

lingkungan, si agen menghasilkan satu deretan

tindakan sesuai dengan persepsi yang diterimanya.

Deretan tindakan ini menyebabkan lingkungan itu

berubah ke sederetan keadaan.

Jika deretan ini dikehendaki, maka si agen bertindak

dengan baik.

Hal dikehendaki ini diperoleh melalui sebuah

performance measure yang mengevaluasi

sederetan keadaan lingkungan tertentu.

Bukan keadaan agen, agar tidak menjadi ―sour grapes‖. 9

10

Perilaku baik: konsep rasionalitas Agen rasional

Sebuah agen rasional haruslah mengarah kepada ―lakukan hal yang benar", berdasarkan kepada apa yang dapat dipahaminya dan tindakan yang dapat dilakukannya. Tindakan yang benar adalah tindakan yang akan menyebabkan agen tersebut paling berhasil

Pengukuran Performance: Sebuah kriteria objektif untuk keberhasilan sebuah perilaku agen

Mis., ukuran performance dari sebuah agen vacuum-cleaner dapat berupa besarnya jumlah debu yang dibersihkan, jumlah waktu yang dihabiskan, jumlah listrik yang dikonsumsi, jumlah kebisingan yang dihasilkan, dll.

11

Rasionalitas

Rasional pada satu waktu tertentu bergantung pada empat hal: Performance measure yang mendefinisikan kriteria

sukses

pengetahuan sebelumnya dari si agen tentang lingkungan

Tindakan yang dapat dilakukan si agen

Deretan persepsi si agen hingga saat ini

12

Rasionalitas

Agen rasional

Untuk setiap deretan persepsi yang

mungkin, sebuah agen rasional

hendaklah memilih satu tindakan yang

diharapkan memaksimalkan ukuran

performance-nya, dengan adanya bukti

yang diberikan oleh deretan persepsi dan

sembarang pengetahuan terpasang yang

dimiliki agen itu.

13

Rasionalitas

Pandang agen vacuum cleaner sederhana

yang melakukan hal berikut: bersihkan

ruangan jika berdebu dan pindah ke ruangan

lain jika tidak.

Apakah ini agen rasional?

Tergantung pada apa performance measure,

apa yang diketahuinya tentang lingkungan,

dan sensor serta aktuator apa yang dimiliki si

agen.

14

Rasionalitas

Misalkan:

Performance measure menghadiahkan satu point

untuk tiap ruangan bersih pada setiap langkah

selama ―masa hidup‖ 1000 kali langkah.

―Geography‖ lingkungan diketahui a priori tetapi

distribusi debu dan lokasi awal si agen tidak

diketahui.

Ruangan bersih tetap bersih dan penyedotan

akan memberishkan ruangan saat itu.

15

Rasionalitas

Tindakan Left dan Right memindahkan agen ke

kiri dan ke kanan kecuali jika si agen terpaksa

keluar dari lingkungannya, dalam hal ini si agen

tetap tinggal dimana dia berada

Tindakan yang tersedia hanyalah Left , Right, dan

Suck.

Si agen menerima kesan dengan benar tentang

lokasi dan apakah lokasi itu mengandung debu.

• Dalam keaadan seperti ini si agen adalah

rasional.

16

Rasionalitas

Agen yang sama akan menjadi irasional

dibawah keadaanyang berbeda.

Contoh: setelah semua demu bersih, si agen

berputar maju mundur secara tidak perlu;

Jika performance measure termasuk penalti

satu point untuk tiap gerakan kiri atau kanan,

si agen akan kehabisan point.

17

Rasionalitas

Agen yang lebih baik untuk hal seperti ini

adalah yang tidak melakukan apa-apa

setelah pasti semua ruangan bersih.

Jika ruang yang bersih kembali berdebu, si

agen hendaklah sesekali memeriksa dan

membersihkan kembali jika perlu.

Jika geography lingkungan tidak diketahui, si

agen akan perlu mengeksplorasinya daripada

bertahan di ruangan A dan B.

18

Omniscience, learning, dan autonomy

Rasionalitas berbeda dari omniscience (tahu segala/all-knowing dengan pengetahuan tak berhingga)

Agen omniscient mengetahui hasil aktual tindakannya dan dapat bertindak sesuai dengan itu.

Akan tetapi, omniscience adalah tidak mungkin dalam realitas.

Contoh: penyeberang jalan tiba-tiba ketimpa pintu pesawat cargo (―New door latches urged for Boing 747 jumbo jets‖, Washington Post, 25 Agustus 1989).

19

Omniscience, learning, dan autonomy

Definisi rasionalitas tidak memerlukan omniscience karena pilihan rasional hanya tergantung pada deretan persepsi hingga saat ini.

Tetapi si agen juga tidak boleh melakukan tindakan yang bodoh.

Contoh: jika si agen tidak melihat ke dua arah

sebelum menyeberang jalan yang sibuk, maka

deretan persepnya tidak akan memberitahu bahwa

ada truk besar yang datang dengan kecepatan

tinggi.

20

Omniscience, learning, dan autonomy

Pertama, adalah tidak rasional menyeberang jalan

di bawah keadaan uninformative percept sequence:

resiko kecelakaan dari menyeberang tanpa melihat

terlalu besar.

Kedua, si agen rasional hendaklah memilih tindakan

―melihat‖ sebelum menyeberangi jalan, karena

melihat membantu memaksimumkan expected

performance.

Melakukan tindakan untuk memodifikasi persepsi

mendatang—disebut information gathering—

sebuah bagian penting dari rasionalitas.

21

Omniscience, learning, dan autonomy

Rasionalitas tidak sama dengan kesempurnaan. Rasionalitas memaksimalkan ekspektasi kinerja.

Kesempurnaan memaksimalkan kinerja aktual.

Definisi agen rasional tidak hanya menyangkut pengumpulan informasi, tetapi juga belajar sebanyak mungkin dari persep yang diterimanya.

Jika keadaan lingkungan diketahui secara lengkap a priori, si agen tidak memerlukan persep atau belajar, cukup bertindak dengan benar.

22

Omniscience, learning, dan autonomy

Sebuah agen adalah otonom (autonomous) apabila perilakunya ditentukan oleh pengalamannya sendiri (dengan kemampuan belajar dan beradaptasi).

Jika si agen melandaskan tindakannya pada pengetahuan sebelumnya dari si desainer, bukan pada persep yang diterimanya, maka agen tersebut kurang memiliki otonomi.

23

Task Environment

PEAS: Performance measure, Environment, Actuators, Sensors

Pertama-tama harus menentukan pengaturan untuk desain agen cerdas

Contoh: Merancang supir taksi otomatis:

24

Task Environment

25

Task Environment

Agen: Sistem pendiagnosa medis

Performance measure: Pasien sehat, biaya

minimal, sesuai hukum

Environment: Patient, hospital, staff

Actuators: Screen display (questions, tests,

diagnoses, treatments, referrals)

Sensors: Keyboard (entry of symptoms,

findings, patient's answers)

26

Task Environment

Agent: Robot pengutip-sukucadang

Performance measure: Persentase suku

cadang dalam kotak yang benar

Environment: ban berjalan dengan suku

cadang, kotak

Actuators: Pergelangan dan tangan

tersambung

Sensors: Kamera, joint angle sensors

27

Task Environment

Agen: Tutor Bahasa Inggeris Interaktif

Performance measure: Memaksimalkan nilai

mahasiswa pada waktu ujian

Environment: Sekumpulan mahasiswa

Actuators: Layar display (exercises,

suggestions, corrections)

Sensors: Keyboard

28

Jenis-jenis Lingkungan

Fully observable (vs. partially observable): Sensor-sensor sebuah agen memberinya akses ke keadaan lengkap lingkungannya pada setiap jangka waktu.

Deterministic (vs. stochastic): Keadaan lingkungan berikutnya sepenuhnya ditentukan oleh keadaan sekarang dan tindakan yang dilaksanakan oleh agen. (Jika lingkungan itu deterministik kecuali untuk tindakan agen-agen lain, maka lingkungannya adalah strategic)

Episodic (vs. sequential): Pengalaman agen dibagi kedalam "episode-episode" atomik (setiap episode terdiri dari si agen memahami (perceiving) dan kemudian melaksanakan satu tindakan, dan pilihan tindakan dalam tiap episode hanya tergantung pada episode itu sendiri.

29

Jenis-jenis Lingkungan

Static (vs. dynamic): Lingkungan tidak berubah

selagi agen direncanakan (deliberating).

(Lingkungan adalah semidynamic jika lingkungan itu

sendiri tidak berubah dengan berjalannya waktu

tetapi skor performa agen berubah)

Discrete (vs. continuous): berkenaan dengan

keadaan (state) dari lingkungan, pada cara

menangani waktu, dan pada persep dan

tindakan si agen.

30

Jenis-jenis Lingkungan

Single agent (vs. multiagent): Sebuah agen yang

mengoperasikan dirinya sendiri dalam sebuah

lingkungan. Lingkungan multiagen dapat kooperatif

atau kompetitif.

Known (vs. unknown): Dalam lingkungan yang

diketahui, hasil (atau probabilitas hasil jika dalam

lingkungan stokastik) untuk semua tindakan telah

diberikan. Dalam lingkungan yang tidak diketahui

(unknown), si agen harus belajar bagaimana

bertindak untuk memperoleh keputusan yang baik.

31

Jenis-jenis Lingkungan

Jenis lingkungan sangat menentukan rancangan agen

Dunia nyata (tentu saja) partially observable, stochastic, sequential, dynamic, continuous, multi-agent.

Lingkungan Tugas Observable Deterministic Episodic Static Discrete Agents

Crossword puzzle

Chess with a clock

Fully

Fully

Deterministic

Stategic

Sequential

Sequential

Static

Semi

Discrete

Discrete

Single

Multi

Poker

Backgammon

Partially

Fully

Stochastic

Stochastic

Sequential

Sequential

Static

Static

Discrete

Discrete

Multi

Multi

Taxi driving

Medical diagnosis

Partially

Partially

Stochastic

Stochastic

Sequential

Sequential

Dynamic

Dynamic

Continu

Continu

Multi

Single

Image-analysis

Part-picking robot

Fully

Partially

Deterministic

Stochastic

Episodic

Episodic

Semi

Dynamic

Continu

Continu

Single

Single

Refinery Controller

Int. English Tutor

Partially

Partially

Stochastic

Stochastic

Sequential

Sequential

Dynamic

Dynamic

Continu

Discrete

Single

Multi

32

Struktur Agen

Perilaku agen: tindakan yang dilakukan setelah diberikan sembarang sekuen persepsi. Tugas AI adalah merancang program agen yang

mengimplementasikan fungsi agen yang memetakan persepsi ke tindakan

Diasumsikan program ini berjalan di beberapa alat komputasi yang dilengkapi sensors dan actuators (disebut arsitektur)

Agent = arsitektur + program

Program yang dipilih harus sesuai dengan arsitektur tersebut. Cth: Action: Walk arsitekturnya hendaklah memiliki kaki

33

Program-Program Agen

Table-driven agents

Agen melihat ke deretan persep dan kemudian

menggunakannya untuk indeks ke sebuah tabel

tindakan untuk menentukan apa yang akan dilakukan.

function TABLE-DRIVEN-AGENT(percept) returns an action

static: percepts, a sequence, initially empty

tables, a table of actions, indexed by percepts sequence, initially fully specified

append percept to the end of percepts

action <- LOOKUP(percepts, table)

return action

34

Table-driven agent

Kekurangan: Tabel sangat besar

Misalkan P himpunan percepts yang mungkin

T lifetime agen

Entri table lookup:

Automated taxi: rate visual input: 27MB/Sec (30 frame/sec, 640x480 pixel dengan

24 bit color information)

Table lookup: 10250,000,000,000

Memakan waktu lama untuk membangun tabel

Tidak Otonom

Bahkan dengan pembelajaran, memerlukan waktu yang lama untuk mempelajari entri tabel

35

Program-Program Agen

Empat jenis dasar program agen yang

meliputi semua sistem cerdas:

Simple reflex agents

Model-based reflex agents

Goal-based agents

Utility-based agents

36

Simple reflex agents

Agen memilih tindakan berdasarkan persep

saat ini (current percept), dengan

mengabaikan sejarah persep selebihnya.

Contoh:

function REFLEX-VACUUM-AGENTS([location, status]) returns an action

if status = Dirty then return Suck

else if location = A then return Right

else if location = B then return Left

Simple Reflex Agent

Dibandingkandengan tabelnya, program agen

vacuum cleaner adalah sangat kecil.

Sejarah persep diabaikan

Apabila ruangan saat ini kotor, tindakan tidak

bergantung pada lokasi.

Pendekatan yang lebih umum dan fleksibel adalah

dengan membangun sebuah general-purpose

interpreter untuk condition–action rules dan

kemudian membuat himpunan aturan untuk

lingkungan tugas spesifik.

37

if car-in-front-is-braking then initiate-braking

Simple reflex agents

Struktur skematik program menunjukkan bagaimana

aturan condition-action memungkinkan si agen

membuat hubungan dari persep ke tindakan.

38

function SIMPLE-REFLEX-AGENT(percept) returns an action

static: rules, a set of condition-action rules

state <- INTERPRET-INPUT(percept)

rule <- RULE-MATCH(state, rule)

action <- RULE-ACTION[rule]

return action

39

Simple reflex agents

Persegi panjang: keadaan internal proses keputusan agen

pada saat ini.

Oval: latar belakang informasi yang digunakan dalam proses.

Simple Reflex Agent

Simple reflex agents adalah sederhana,

tetapi memiliki kecerdasan yang terbatas.

Hanya berlaku jika keputusan yang benar dapat

dibuat hanya berdasarkan persep saat ini – yaitu

hanya jika lingkungannya adalah fully observable.

Sedikit unobservability saja dapat menyebabkan

kesulitan serius.

40

Model-based Reflex Agent

Cara paling efektif untuk menangani parsial

observability: perhatikan bagian dari dunia yang

tidak dapat dilihat.

Memiliki internal state yang tergantung pada sejarah

persep yang dapat merefleksikan paling sedikit

sebagian aspek yang tidak terlihat dari keadaan

saat ini.

Melakukan update pada internal state memerlukan

dua jenis pengetahuan:

41

Model-based Reflex Agent

Pertama: informasi tentang bagaimana dunia

berubah secara independen terhadap agen.

Kedua: informasi tentang bagaimana tindakan si

agen itu sendiri mempengaruhi dunia.

Pengetahuan tentang ―how the world works‖ disebut

model dari dunia itu.

Agen yang menggunakan model demikian itu

disebut model-based agent.

42

43

Model-based reflex agents

Model-based reflex agents

Persep saat ini dikombinasikan dengan internal

state yang lama untuk menghasilkan deskripsi ter-

update dari keadaan saat ini yang didasarkan pada

model si agen tantang how the world works.

Fungsi UPDATE-STATE berguna untuk

menciptakan deskripsi internal state baru.

44

Model-based reflex agents

Melihat (keeps track of) keadaan dunia saat

ini, menggunakan sebuah internal model.

Kemudian memilih tindakan dengan cara

yang sama seperti reflex agent.

45

Goal-based agents

Mengetahui sesuatu tentang keadaan

lingkungan saat ini tidak selalu cukup untuk

memutuskan apa yang akan dilakukan.

Contoh: di persimpangan jalan

Selain deskripsi keadaan saat ini, agen

memerlukan sejenis informasi goal yang

menjabarkan tentang situasi yang diinginkan.

Tujuan si penumpang

46

47

Goal-based agents

Utility-based agents

Goal saja tidak cukup untuk menghasilkan

perilaku berkualitas-tinggi dalam sebagian

besar lingkungan.

Performance measure hendaklah

memungkinkan adanya perbandingan

terhadap keadaan dunia yang berbeda-beda

sesuai dengan seberapa ―happy‖ si agen.

―Happy‖ = utility

48

49

Utility-based agents

Learning agents

Learning memungkinkan si agen beroperasi dalam

lingkungan yang pada mulanya tidak diketahui dan

menjadi lebih kompeten daripada yang dimungkin-

kan oleh pengetahuan awalnya.

Learning Agen dapat dibagi ke dalam empat

komponen konseptual.

Performance element bertanggung jawab untuk

memilih tindakan eksternal.

Performance element mengandung kumpulan pengetahuan

dan prosedur yang dimiliki agen untuk memilih tindakan.

50

Learning agents

Critic memberikan feedback kepada learning

element tentang bagaimana keadaan agen

dan menentukan bagaimana performance

element hendaknya dimodifikasi agar lebih

baik di masa datang.

Critic memperhatikan keadaan dunia dan mengirim

informasi ke learning element.

Learning element bertanggungjawab untuk

melakukan perbaikan

51

Learning agents

Problem generator bertanggung jawab untuk

mengusulkan tindakan yang akan membawa

ke pengalaman baru dan informatif.

Problem generator mengidentifikasi bidang perilaku

tertentu yang memerlukan perbaikan dan

mengusulkan untuk melakukan eksperiman.

52

53

Learning agents

Cara Kerja Program Agen

54

Cara Kerja Program Agen

• Atomic representation

Tiap-tiap keadaan dunia tidak dapat dibagi-bagi

karena tidak memiliki struktur internal.

Tiap-tiap state merupakan black box.

• Factored representation

Memisah masing-masing state menjadi satu

kumpulan variabel atau atribut yang tetap.

Masing-masing variabel memiliki nilai.

Dua keadaan terfaktor yang berbeda dapat berbagi

atribut yang sama.

55

Cara Kerja Program Agen

• Structured representation

Tiap-tiap state merupakan objek yang saling

berhubungan antara satu dengan yang lain.

Objek dan berbagai hubungannya dapat dijabarkan

secara eksplisit.

Sumbu dimana ketiga representasi tersebut

berada memiliki sifat ekspresif yang semakin

meningkat.

Representasi bahasa yang lebih ekspresif akan

lebih tetliti. 56

Cara Kerja Program Agen

• Contoh:

Dalam bahasa representasi terstruktur seperti first-

order logic, aturan permainan catur dapat dituliskan

dalam satu atau dua halaman.

Dalam bahasa factored representasion seperti

proposisional logic, aturan itu bisa memerlukan ribuan

halaman.

Sebaliknya, reasoning dan learning menjadi lebih

kompleks dengan semakin bertambah ekspresifnya

kekuatan representasi.

57

top related