ho-03 kecerdasan buatan

Post on 06-Aug-2015

183 Views

Category:

Documents

5 Downloads

Preview:

Click to see full reader

TRANSCRIPT

HO-2 KTL401 Kecerdasan Buatan

Intelligent Agents

Opim S Sitompul

2

Outline

Agen dan lingkungan

Rasionalitas

PEAS (Performance measure, Environment,

Actuators, Sensors)

Jenis-jenis Lingkungan

Jenis-jenis Agen

3

Agent

Agent adalah sesuatu yang dapat mengesan (perceiving) lingkungan (environment) nya melalui sensors dan bertindak (acting) terhadap lingkungan tersebut melalui actuators

Agen manusia: mata, telinga, dan organ tubuh lain untuk sensor; tangan, kaki, mulut, dan bagian tubuh lain untuk actuators

Agen robotik: kamera dan infrared range finders untuk sensors; berbagai macam motor untuk actuators

4

Agent dan lingkungan

Fungsi agen memetakan dari sejarah persepsi ke

dalam tindakan (actions):

[f: P* A]

Program agen berjalan pada arsitektur fisik untuk

menghasilkan f

agen = arsitektur + program

5

Vacuum-cleaner world

Percepts: location and contents, e.g.,

[A,Dirty]

Actions: Left, Right, Suck, NoOp

6

A vacuum-cleaner agent

Sekuen Persepsi Tindakan

[A, Clean] Right

[A, Dirty] Suck

[B, Clean] Left

[B, Dirty] Suck

[A, Clean], [A, Clean] Right

[A, Clean], [A, Dirty] Suck

… …

[A, Clean], [A, Clean], [A, Clean] Right

[A, Clean], [A, Clean], [A, Dirty] Suck

… …

7

Agen rasional Sebuah agen haruslah mengarah kepada “lakukan

hal yang benar", berdasarkan kepada apa yang dapat dipahaminya dan tindakan yang dapat dilakukannya. Tindakan yang benar adalah tindakan yang akan menyebabkan agen tersebut paling berhasil

Pengukuran Performance: Sebuah kriteria objektif untuk keberhasilan sebuah perilaku agen

Mis., ukuran performance dari sebuah agen vacuum-cleaner dapat berupa besarnya jumlah debu yang dibersihkan, jumlah waktu yang dihabiskan, jumlah listrik yang dikonsumsi, jumlah kebisingan yang dihasilkan, dll.

8

Agen rasional

Agen rasional : Untuk setiap deretan persepsi

yang mungkin, sebuah agen rasional

hendaklah memilih satu tindakan yang

diharapkan memaksimalkan ukuran

performance-nya, dengan adanya bukti yang

diberikan oleh deretan presepsi dan apapun

pengetahuan terpasang yang dimiliki agen

itu.

9

Omniscience, learning, dan autonomy

Rasionalitas berbeda dari omniscience (tahu segala/all-knowing dengan pengetahuan tak berhingga)

Agen omniscient mengetahui hasil aktual tindakannya dan dapat bertindak sesuai dengan itu.

Akan tetapi, omniscience adalah tidak mungkin dalam realitas.

Contoh: penyeberang jalan tiba-tiba ketimpa pintu pesawat cargo (“New door latches urged for Boing 747 jumbo jets”, Washington Post, 25 Agustus 1989).

10

Omniscience, learning, dan autonomy

Rasionalitas tidak sama dengan kesempurnaan. Rasionalitas memaksimalkan ekspektasi kinerja.

Kesempurnaan memaksimalkan kinerja aktual.

Definisi agen rasional tidak hanya menyangkut pengumpulan informasi, tetapi juga belajar sebanyak mungkin dari persep yang diterimanya.

Sebuah agen adalah otonom (autonomous) apabila perilakunya ditentukan oleh pengalamannya sendiri (dengan kemampuan belajar dan beradaptasi)

11

Task Environment

PEAS: Performance measure, Environment, Actuators, Sensors

Pertama-tama harus menentukan pengaturan untuk desain agen cerdas

Contoh: Merancang supir taksi otomatis:

12

Task Environment

13

Task Environment

Agen: Sistem pendiagnosa medis

Performance measure: Pasien sehat, biaya

minimal, sesuai hukum

Environment: Patient, hospital, staff

Actuators: Screen display (questions, tests,

diagnoses, treatments, referrals)

Sensors: Keyboard (entry of symptoms,

findings, patient's answers)

14

Task Environment

Agent: Robot pengutip-sukucadang

Performance measure: Persentase suku

cadang dalam kotak yang benar

Environment: ban berjalan dengan suku

cadang, kotak

Actuators: Pergelangan dan tangan

tersambung

Sensors: Kamera, joint angle sensors

15

Task Environment

Agen: Tutor Bahasa Inggeris Interaktif

Performance measure: Memaksimalkan nilai

mahasiswa pada waktu ujian

Environment: Sekumpulan mahasiswa

Actuators: Layar display (exercises,

suggestions, corrections)

Sensors: Keyboard

16

Jenis-jenis Lingkungan

Fully observable (vs. partially observable): Sensor-sensor sebuah agen memberinya akses ke keadaan lengkap lingkungannya pada setiap jangka waktu.

Deterministic (vs. stochastic): Keadaan lingkungan berikutnya sepenuhnya ditentukan oleh keadaan sekarang dan tindakan yang dilaksanakan oleh agen. (Jika lingkungan itu deterministik kecuali untuk tindakan agen-agen lain, maka lingkungannya adalah strategic)

Episodic (vs. sequential): Pengalaman agen dibagi kedalam "episode-episode" atomik (setiap episode terdiri dari si agen memahami (perceiving) dan kemudian melaksanakan satu tindakan, dan pilihan tindakan dalam tiap episode hanya tergantung pada episode itu sendiri.

17

Jenis-jenis Lingkungan

Static (vs. dynamic): Lingkungan tidak berubah selagi agen direncanakan (deliberating). (Lingkungan adalah semidynamic jika lingkungan itu sendiri tidak berubah dengan berjalannya waktu tetapi skor performa agen berubah)

Discrete (vs. continuous): Sejumlah terbatas persepsi dan tindakan yang khas dan terdefinisi baik.

Single agent (vs. multiagent): Sebuah agen yang mengoperasikan dirinya sendiri dalam sebuah lingkungan.

18

Jenis-jenis Lingkungan

Jenis lingkungan sangat menentukan rancangan agen

Dunia nyata (tentu saja) partially observable, stochastic, sequential, dynamic, continuous, multi-agent

Lingkungan Tugas Observable Deterministic Episodic Static Discrete Agents

Crossword puzzle

Chess with a clock

Fully

Fully

Deterministic

Stategic

Sequential

Sequential

Static

Semi

Discrete

Discrete

Single

Multi

Poker

Backgammon

Partially

Fully

Stochastic

Stochastic

Sequential

Sequential

Static

Static

Discrete

Discrete

Multi

Multi

Taxi driving

Medical diagnosis

Partially

Partially

Stochastic

Stochastic

Sequential

Sequential

Dynamic

Dynamic

Continu

Continu

Multi

Single

Image-analysis

Part-picking robot

Fully

Partially

Deterministic

Stochastic

Episodic

Episodic

Semi

Dynamic

Continu

Continu

Single

Single

Refinery Controller

Int. English Tutor

Partially

Partially

Stochastic

Stochastic

Sequential

Sequential

Dynamic

Dynamic

Continu

Discrete

Single

Multi

19

Struktur Agen

Perilaku agen: tindakan yang dilakukan setelah diberikan sembarang sekuen persepsi. Tugas AI adalah merancang program agen yang

mengimplementasikan fungsi agen yang memetakan persepsi ke tindakan

Diasumsikan program ini berjalan di beberapa alat komputasi yang dilengkapi sensors dan actuators (disebut arsitektur)

Agent = arsitektur + program

Program yang dipilih harus sesuai dengan arsitektur tersebut. Cth: Action: Walk arsitekturnya hendaklah memiliki kaki

20

Program-Program Agen

Empat jenis dasar untuk menambah

generalitas:

Simple reflex agents

Model-based reflex agents

Goal-based agents

Utility-based agents

21

Table-driven agent

function TABLE-DRIVEN-AGENT(percept) returns an action

static: percepts, a sequence, initially empty

tables, a table of actions, indexed by percepts sequence, initially fully specified

append percept to the end of percepts

action <- LOOKUP(percepts, table)

return action

22

Table-driven agent

Kekurangan: Tabel sangat besar

Misalkan P himpunan percepts yang mungkin

T lifetime agen

Entri table lookup:

Automated taxi: rate visual input: 27MB/Sec (30 frame/sec, 640x480 pixel dengan

24 bit color information)

Table lookup: 10250,000,000,000

Memakan waktu lama untuk membangun tabel

Tidak Otonom

Bahkan dengan pembelajaran, memerlukan waktu yang lama untuk mempelajari entri tabel

23

Simple reflex agents

Contoh:

function REFLEX-VACUUM-AGENTS([location, status]) returns an action

if status = Dirty then return Suck

else if location = A then return Right

else if location = B then return Left

24

Simple reflex agents

25

Simple Reflex Agent

function SIMPLE-REFLEX-AGENT(percept) returns an action

static: rules, a set of condition-action rules

state <- INTERPRET-INPUT(percept)

rule <- RULE-MATCH(state, rule)

action <- RULE-ACTION[rule]

return action

26

Model-based reflex agents

27

Model-based reflex agents

function REFLEX-AGENT-WITH-STATE(percept) returns an action

static: state, a description of the current world state

rules, a set of condition-action rules

action, the most recent action, initially none

state <- UPDATE-STATE(state, action, percept)

rule <- RULE-MATCH(state, rules)

action <- RULE-ACTION[rule]

return action

28

Goal-based agents

29

Utility-based agents

30

Learning agents

top related