Skinner (1961e) se refere, por um lado, a um meio interno
relacionado às funções orgânicas e, por outro, a um meio externo relacionado ao comportamento que
é o que lhe
interessa. No
entanto, como será visto posteriormente,
ele também admite que parte do
ambiente relacionada ao comportamento está encerrada dentro da própria pele do indivíduo, sendo portanto privada.
Skinner (1961f) também se refere a um meio físico e a um
meio social. O que
será
visto aqui diz respeito principalmente ao
meio
físico já que seus princípios gerais também são válidos para o meio social. As especificidades
deste último serão tratadas posteriormente quando for analisado o papel da cultura e do social.
Mas o papel do meio não pode ser analisado
sem antes termos
uma
noção geral de como Skinner concebe comportamento, meio e suas relações,
i.e., seu
enfoque
metodológico.
Para
isto será preferível rever sua postulação inicial tal como apresentada
em
The Behavior of Organisms. Isto nos levará a tratar também do comportamento nesta parte tendo em vista que comportamento
e meio não podem ser concebidos independentemente um do outro.
Neste seu primeiro livro publicado em 1938, Skinner considera que o comportamento é apenas parte da atividade total de um
organismo,
é aquilo que o organismo está fazendo, ou melhor, é a parte do funcionamento
do
organismo engajado em agir sobre o
mundo externo. Mas para se fazer uma ciência do comportamento torna-se necessária uma delimitação formal, independente
do vernáculo, já que muitos dos termos deste implicam esquemas conceptuais,
o que é rejeitado por Skinner como foi visto
anteriormente.
Além disso, para Skinner, para se fazer ciência, é preciso
estabelecer relações funcionais, o que implica que, no caso do comportamento, ele deverá ser concebido em sua relação com o ambiente. É assim que ele diz que:
"O ambiente entra em uma descrição do
comportamento quando pode ser mostrado que uma determinada parte do comportamento pode ser induzida à vontade (ou de acordo com certas leis) por uma modificação em
parte
das
forças que
afetam o organismo. Tal parte, ou
modificação de
uma
parte do ambiente é tradicionalmente chamada de um estímulo e a parte correlacionada
do comportamento
uma
resposta. Nenhum dos
termos pode
ser definido quanto a suas propriedades essenciais sem o outro. Para a relação observada
entre eles usarei o termo reflexo..." (Skinner, 1938, p. 9, grifos do autor)
O reflexo é concebido, então, como uma correlação
e possui o status de unidade analítica, mas não é a única já que Skinner admite uma outra unidade de análise, que será
vista
logo
a
seguir,
a resposta operante.
Contudo, é preciso conhecer quais os critérios adotados
por Skinner para definir essas 'partes' do ambiente
e 'partes'
do comportamento. Para ele, é preciso que elas retenham sua identidade durante um experimento e que as mudanças por elas sofridas sejam ordenadas de maneira que a unidade seja reprodutível. Por isso, a
subdivisão não pode ser arbitrária nem levar em conta apenas
o aspecto topográfico, pois é muito difícil encontrar um estímulo e uma resposta que mantenham exatamente as mesmas propriedades topográficas
em duas ocasiões
sucessivas. O critério deve ser outro.
Referindo-se ao reflexo de flexão,
Skinner considera que a maioria das propriedades do estímulo e da resposta
como a localização exata
do
estímulo, sua energia ou a direção da resposta de flexão são irrelevantes. Para
ele: "As únicas
propriedades relevantes
são
a
flexão (a redução do ângulo feita por segmentos
adjacentes de um membro em determinada junta) e um dado tipo ('nocivo') de estimulação aplicada a uma área bastante ampla" (1938, p. 34).
Skinner irá lidar então com uma classe
de estímulos e uma classe de
respostas, sendo a correlação encontrada uma correlação de classes.
Isto posto, o problema passa a ser de encontrar as propriedades definidoras corretas. Skinner (1938) considera que é preciso primeiro observar algum aspecto do comportamento que ocorre repetidamente sob estimulação geral e, em seguida, descobrir os estímulos que
eliciam essas respostas por exploração. Assim, a propriedade definidora do estímulo é identificada
como a parte comum
aos
diferentes
estímulos que são eficazes. Isto significa que é impossível definir um
estímulo
funcional
sem
referência
a
uma resposta funcional, e vice-versa.
A partir destas noções gerais, Skinner (1970a) admite dois, e
apenas dois, processos de condicionamento suscetíveis de alterar a
probabilidade da resposta. São
eles o condicionamento respondente e
o condicionamento
operante. No paradigma respondente, ou pavloviano – S-R – temos inicialmente um estímulo incondicionado
que elicia uma resposta respondente.
Quando este estímulo (S) é
emparelhado, ou apresentado conjuntamente, com um S neutro para esta resposta
(R), este último passa a seguir a também eliciar a R. Neste caso, ele passa
a ser um S condicionado e a R uma R condicionada.
O importante a ser notado aqui é que este processo de
condicionamento proporciona novos estímulos controladores mas não
pode acrescentar novas respostas já que uma R precisa ser primeiro eliciada antes de ser condicionada,
ou
seja, ela já deve existir no repertório
do organismo sob a forma
de uma
resposta
incondicionada.
Além
disso,
está
envolvida,
neste processo, uma forma de determinação linear na qual, dado
um estímulo condicionado ou incondicionado, a resposta
surge obrigatoriamente. Para dar conta da maior parte do comportamento é preciso, então,
lançar mão do processo de condicionamento operante. No paradigma
operante skinneriano – S-R-S – temos uma contingência de três termos que envolve: a condição sob a qual o comportamento ocorre, ou
S antecedente; o próprio comportamento,
ou
R e a conseqüência deste comportamento,
ou S conseqüente. Neste caso, é preciso enfatizar
que
o papel dos estímulos é diferente do processo
anterior,
eles não eliciam obrigatoriamente uma R operante, mas apenas modificam a probabilidade
de que ela ocorra. É através do
condicionamento operante, então, que o meio modela e fortalece, ou mantém, um repertório comportamental.
O que será visto a seguir se
refere, então, aos diferentes papéis exercidos pelo meio dentro do paradigma
operante já que foi através deste que Skinner desenvolveu sua ciência do comportamento. Serão
abordados, assim, os diferentes tipos de estímulos antecedentes e
diferentes tipos de estímulos conseqüentes
que
podem ser
encontrados, os diferentes papéis por eles exercidos sobre o
comportamento,
as
diferentes formas de apresentá-los, ou torná-los contingentes, e outras
condições que
também devem
ser consideradas para
se prever a probabilidade de emissão de uma resposta.
Começaremos pelo S conseqüente, ou S reforçador, isto é, pela parte R-S da contingência de três termos. Segundo Skinner (1970a), os Ss reforçadores modificam a probabilidade de ocorrência da R.
Eles são de dois tipos: os reforçadores
positivos cuja apresentação
contingente à R aumenta sua probabilidade de ocorrência futura, e os reforçadores negativos (ou Ss aversivos) cuja remoção contingente à
R também aumenta sua probabilidade. Por outro lado, as operações opostas
com estes dois tipos de reforçadores provoca o efeito oposto. Neste caso, a retirada de um reforçador
positivo e a apresentação de
um reforçador negativo diminuem a probabilidade
de ocorrência
futura da R e são chamadas de punição. De uma maneira geral, só se pode saber se um determinado S
reforçador é positivo ou negativo para determinado
organismo testando-o diretamente. Isto é, se sua apresentação
aumentar a taxa da R ele é positivo; se sua remoção aumentá-la, ele é negativo. Isto significa que de uma maneira geral
um
S reforçador não é positivo ou negativo em si mesmo e que ele é
definido como sendo positivo ou negativo a partir de seus
efeitos
provocados na taxa da R. Isto ocorre porque apenas alguns Ss reforçadores
são positivos ou negativos de forma inata ou
incondicionada; são os Ss reforçadores primários. Entre outros, os
positivos incluem alimento,
água, contato sexual, e os negativos incluem barulho forte, luz brilhante, choque. Os demais Ss reforçadores são condicionados, ou secundários.
Ou seja, adquiriram
seu valor de reforçador positivo ou negativo a partir da história passada de reforçamento;
de
sua inclusão
em uma determinada
contingência de reforçamento
(Holland e Skinner, 1969). Isto ocorre
da
seguinte maneira: um S antecedente
incluído em uma
contingência na qual está presente um reforçador
positivo será
também um S reforçador positivo mas da R que o antecede.
Neste caso,
ele será um S conseqüente desta R, portanto, reforçador. Isto poderá ser melhor ilustrado através
do
seguinte exemplo: S1 (na Presença do pai e do pipoqueiro)-R1 (a criança
pede dinheiro ao pai)- S2 (a criança
recebe dinheiro do pai)-R2 (a criança
dá
dinheiro ao pipoqueiro)-S3 (a
criança recebe a pipoca).
Temos aí, então, a seguinte contingência: S1-Rl-S2-R2-S3 na qual
S1 é um S
discriminativo (Sd ) que indica à criança
a ocasião para ela pedir
dinheiro e ser reforçada, ou seja, recebê-lo, e ela assim o faz através da R1 e é realmente reforçada
através de S2. Isto, ou seja S2, lhe
indica a ocasião de dar dinheiro ao pipoqueiro (R2) e ser reforçada
(S3). Este esquema
mostra que o S2 é ao mesmo tempo um S conseqüente, ou reforçador positivo, para R1 e um S antecedente, ou
Sd , para R2. E é por estar associado ao S3, que é um reforçador positivo, que ele também se torna um reforçador positivo
condicionado.
Isto significa que para que a criança possa dar a R2, e preciso
que ela produza a ocasião (S2) para que ela aconteça , e a criança faz isto através da R1.
Este esquema também
nos permite abordar outro conceito de
Skinner que é o de reforçador generalizado. Um reforçador
condicionado, ou secundário,
pode se tornar generalizado se for associado a vários tipos de reforçadores incondicionados,
ou primários.
É o
caso do dinheiro, de um diploma, da atenção, aprovação, afeto e submissão. Todos estes Ss costumam indicar a
probabilidade de reforçamento positivo futuro se uma determinada R for dada (Holland e Skinner, 1969; Skinner, 1970a).
O exemplo acima envolveu apenas Ss reforçadores positivos. Podemos examinar
um
exemplo em que estejam envolvidos
Ss aversivos para caracterizar duas formas de comportamento a eles relacionadas: a fuga e a esquiva (Skinner, 1970a). Uma criança pode,
ao
ouvir o som da broca do dentista, começar a chorar para fugir do som da broca que se tornou um S aversivo condicionado, ao ser associado à dor provocada pela broca, e assim se
esquivar da dor que
é o
S aversivo incondicionado.
Com relação aos Ss antecedentes, eles agem antes do
aparecimento
da
R, envolvendo a parte S-R da contingência de três termos mas eles não eliciam a R como no paradigma
respondente ,
apenas modificam a probabilidade de ocorrência
da
R por terem sido associados a Ss conseqüentes. Os Ss antecedentes caracterizam o
processo de discriminação. Nos exemplos acima, o dinheiro na mão da
criança e o som da broca são Ss discriminaticos para a criança responder dando dinheiro ao pipoqueiro e chorando, e ser reforçada
ao receber a pipoca e evitar a dor provocada pela broca. Eles indicam à
criança a probabilidade dela ser reforçada
se apresentar as Rs requeridas pela contingência. Esta discriminação se estabelece pela história passada, ou seja, de uma certa forma o Sd traz 'embutido' nele a história de reforçamento. Além disso, a criança poderá apresentar essas duas Rs na presença de Ss parecidos ao dinheiro
(uma ficha) e ao som da broca devido ao processo de generalização de Ss. Neste caso, a criança
estará respondendo a estes Ss – ficha e
som parecido ao da broca – embora nunca tenha sido submetida a esta contingência (Holland e Skinner 1969; Skinner, 1970a).
Temos então que á probabilidade da R depende da contingência na
qual ela está inserida, i.e., de sua relação com os Ss antecedente e conseqüente. Mas há um outro fator fundamental que irá determinar
a taxa da R, ou padrão de comportamento, que são os esquemas de reforçamento. Uma R pode ser reforçada toda vez que ela ocorre,
como no reforçamento
contínuo, mas o caso mais comum é que ela
seja reforçada apenas algumas vezes, como no reforçamento intermitente. Assim, ela pode ser reforçada depois que um certo número de Rs tenha sido dado como no caso do esquema de razão
que
pode ser fixo ou variável – a cada 5 Rs ou a cada 3, 6, 7 Rs – ou depois de decorrido um tempo determinado como no esquema de intervalo que também pode ser fixo ou variável a cada 2' ou a cada
30", 1'. Estes 4 tipos de esquemas intermitentes de reforçamento
levam a padrões típicos de
R. Além disso, eles podem ser combinados
de
diferentes formas gerando um novo padrão específico. O
importante aqui é salientar que o próprio padrão de comportamento
pode se
tornar
um S.
Ou seja,
o
próprio comportamento
do organismo
se torna uma variável independente. Ferster e Skinner (1957) dizem a este respeito que:
"Pode ser mostrado que, sob determinado
esquema
de
reforçamento, geralmente prevalecerá, no
momento do
reforçamento, um
determinado
conjunto
de Ss...
O reforçamento ocorre na presença de tais Ss, e o comportamento
futuro do organismo está em
parte controlado
por
eles
ou por Ss
similares de
acordo com o princípio bem estabelecido de discriminação operante... O comportamento do
organismo sob qualquer esquema é expresso como uma função das condições prevalecentes
sob o esquema, incluindo o comportamento do próprio
organismo" (p. 3).
Dito de outra maneira, isto significa que um esquema
de reforçamento
impõe determinado desempenho e este gera Ss que
entram também no controle da taxa da R. Assim, o comportamento
do
organismo também é parte do meio estimulador (Skinner, 1961f ).
Vimos, então, que o comportamento é função das seguintes
variáveis independentes: Ss antecedentes,
contingências de reforçamento
aí incluídos os esquemas de reforçamento e o próprio
comportamento.
Mas existem outras variáveis independentes que devem ser consideradas (Skinner, 1969c, 1970a, 1970b). No campo da motivação, temos a privação
e a saciação. Por exemplo, um organismo só comerá se privado
de alimento. Ou seja, para que o
organismo responda de determinada maneira para ser reforçado por
alimento é preciso que ele tenha sido previamente
privado
alimento, sem isto não se observará o efeito do reforçamento
operante. No campo da emoção, a apresentação
de
um S aversivo pode se assemelhar a um aumento da privação já que podemos condicionar qualquer comportamento que elimine o S aversivo. Skinner também menciona a administração
de
drogas e a idade como variáveis independentes.
Com exceção ao que se refere ao comportamento como sendo
também uma variável independente,
o que foi visto até aqui diz
respeito a estímulos externos dos quais o comportamento é função.
Contudo, Skinner (1970a) admite que Ss privados como os
interoceptivos
e proprioceptivos também podem ter um papel no controle do comportamento. A esse respeito, ele considera que:
"Quando dizemos que o comportamento é função do ambiente, o termo 'ambiente'
presumivelmente significa qualquer evento no universo capaz de afetar o organismo. Mas parte do universo está encerrada
dentro
da
própria pele de cada um....
uma
pequena
parte do universo é privada"
(p. 148-149)
Isto significa que Ss internos podem desempenhar tanto papel de Sd quanto de Ss reforçadores.
Contudo, a análise do controle privado do comportamento deverá ser postergada até o final deste capítulo quando será analisada mais especificamente a noção de cognitivo em
Skinner, já que ela irá depender das análises dos
papéis
da
linguagem
e do social a serem realizadas logo após a análise do
comportamento que será vista a seguir.