Investigação Operacional
Transcrição
Investigação Operacional
ISSN: 0874-5161 Investigação Operacional Volume 24 Apdio CESUR - Instituto Superior Técnico Av. Rovisco Pais - 1049 - 001 LISBOA Telef. 21 840 74 55 - Fax. 21 840 98 84 http://www.apdio.pt Número 1 Junho 2004 PRETO PRETO MAGENTA = APDIO INVESTIGAÇÃO OPERACIONAL Propriedade: APDIO Associação Portuguesa de Investigação Operacional Patrocinadores Fundação Calouste Gulbenkian Apoio do Programa Operacional Ciência, Tecnologia, Inovação do Quadro Comunitário de Apoio III. ISSN nº 0874-5161 Dep. Legal nº 130 761 / 98 Execução Gráfica: J. F. Macedo - Astrografe 700 Ex. 2004/6 PRETO VERDE = ORIGINAL INVESTIGAÇÃO OPERACIONAL Volume 24 — no 1 — Junho 2004 Publicação Semestral Editor Principal: Editor Adjunto: Joaquim J. Júdice Universidade de Coimbra José F. Oliveira Universidade do Porto Comissão Editorial M. Teresa Almeida J. Rodrigues Dias Inst. Sup. Economia e Gestão Univ. de Évora Rui Oliveira Inst. Superior Técnico C. Henggeler Antunes Univ. de Coimbra Laureano Escudero IBM, Espanha J. Pinto Paixão Univ. de Lisboa Marcos Arenales Univ. de São Paulo Edite Fernandes Univ. do Minho M. Vaz Pato Inst. Sup. Economia e Gestão Jaime Barceló Univ. de Barcelona J. Soeiro Ferreira Univ. do Porto Mauricio G. Resende AT&T Labs Research Eberhard E. Bischoff University of Wales, Swansea J. Fernando Gonçalves Univ. do Porto A. Guimarães Rodrigues Univ. do Minho C. Bana e Costa Inst. Superior Técnico Luı́s Gouveia Univ. de Lisboa António J. L. Rodrigues Univ. de Lisboa M. Eugénia Captivo Univ. de Lisboa Rui C. Guimarães Univ. do Porto J. Pinho de Sousa Univ. do Porto Domingos M. Cardoso Univ. de Aveiro J. Assis Lopes Inst. Superior Técnico Reinaldo Sousa Univ. Católica, Rio Janeiro João Clı́maco Univ. de Coimbra Carlos J. Luz Inst. Polit. Setúbal L. Valadares Tavares Inst. Superior Técnico J. Dias Coelho Univ. Nova de Lisboa Virgı́lio P. Machado Univ. Nova de Lisboa B. Calafate Vasconcelos Univ. do Porto João P. Costa Univ. de Coimbra Manuel Matos Univ. do Porto Luı́s N. Vicente Univ. de Coimbra Ruy Costa Univ. Nova de Lisboa N. Maculan Univ. Fed., Rio Janeiro Victor V. Vidal Technical Univ. of Denmark P.C. Godinho, A.R. Afonso, J.P. Costa / Investigação Operacional, 24 (2004) 1-20 1 On the use of multiple financial methods in the evaluation and selection of investment projects∗ Pedro Cortesão Godinho ∗ † António Ricardo Afonso João Paulo Costa ∗ † ∗ ‡ ∗ † Faculdade de Economia da Universidade de Coimbra [email protected] INESC - Instituto de Engenharia de Sistemas e Computadores ‡ Portugal Telecom Inovação Abstract This paper addresses the analysis and evaluation of investment projects within a multicriteria framework. We mathematically define a multicriteria framework and we present a result that allows the identification of redundant methods. Then we try to define which financial methods can, and which ones cannot, be simultaneously used according to that framework. We also try to establish a set of guidelines to help decision makers choose the financial methods best suited to their particular situations. Keywords: Project Evaluation, Project Analysis, Multicriteria Decision Aid 1 Introduction Analysis and evaluation of investment projects are fundamental activities in most businesses. In fact, their prosperity depends upon the correct allocation of the capital they raise - if many unprofitable investments are made, the survival of the companies may be in danger. Many methods for economic evaluation of investment projects, also known as financial methods, have been developed to help decision makers (DMs) assess whether or not an investment will be profitable, or compare the profitability of different investments. Although all these methods Supported by FCT, FEDER, project POCTI/32405/GES/2000. The authors wish to thank the helpful comments of an anonymous referee. ∗ c 2004 Associação Portuguesa de Investigação Operacional 2 P.C. Godinho, A.R. Afonso, J.P. Costa / Investigação Operacional, 24 (2004) 1-20 are, directly or indirectly, concerned with the profitability of the investments, they do not always yield the same results - in fact, different methods do sometimes yield contradictory results when evaluating or comparing the same investments. This fact raises some difficult questions to DMs in charge of investment selection, concerning: • which method (or methods) should be used in a particular situation; • whether one or more method(s) should be used in a particular situation; • how should the results from different methods be aggregated. To worsen matters, these methods cannot usually account for all the relevant information. One reason is that some strategic impacts of the investments are too complex to be properly quantified in the predicted earnings or cash flows. Another reason is that there are usually some issues, not related with the profitability of the investment, that DMs want to consider when they make an investment decision - these issues may refer to prestige, power or ethical concerns and are relevant to the DMs as individual human beings. This raises the question of knowing when and how these issues should be considered. In this paper we will address the analysis and evaluation of investment projects within a multicriteria framework. This framework will provide a theoretical basis to the aggregation of the results yielded by different methods, and we believe it may also provide a basis for the aggregation of these with non-financial factors. It will also allow the use of decision theory methods in investment decisions and, hopefully, avoid some decision errors due to an incorrect aggregation of factors. The framework we use is based upon the work of Bana e Costa [3] and Roy [13]. In this framework, all the properties, or characteristics, of the investments are modelled as attributes, and the results yielded by financial methods will be called financial attributes. Among the attributes, the decision maker (DM) will build a set of criteria, taking into account his/her concerns, values and beliefs. Some of the criteria may result from the aggregation of several attributes. First, we present the most widely used methods for project evaluation. Using a classification based upon [11,12], we divide the most important financial methods into five classes equivalent worth, rate of return, ratio, payback and accounting. In order to have a correct structure for the decision problem, we want the set of criteria to be a coherent family of criteria [3]. This means that we want the set of criteria to be exhaustive, cohese and non-redundant. Exhaustiveness means that all relevant criteria are included in the set of criteria. So, if any two alternatives are equal in all criteria they must be indifferent for the DM, or else we must conclude that there is at least one relevant issue that is not properly accounted for by the set of criteria. Cohesion means that if two alternatives, A and B, are equal in all criteria but one, and A is better than B according to that criterion, then A must be preferred to B. A set of criteria is non-redundant if the removal of any criterion causes that set to be no longer both exhaustive and cohese. In section 3, we mathematically define these conditions and present a result that can be applied to the identification of redundant criteria. Then, we try to find out which financial attributes can, and which ones cannot, be used together as criteria, assuming that we want the set of criteria to be a coherent family of criteria and to be based on non-contradictory assumptions and concepts. We try to define whether or P.C. Godinho, A.R. Afonso, J.P. Costa / Investigação Operacional, 24 (2004) 1-20 3 not financial attributes from the same class should be used together as criteria, and whether or not financial attributes from different classes should be used together as criteria, according to our framework. We argue that a DM will usually want to use at most one financial attribute from a single class. We also argue that a DM may use together attributes from different classes, but he/she will usually want to use at most one attribute from both the classes of ratio and rate of return methods. Afonso et al. [1] perform a similar analysis, using a slightly different classification of the financial methods. In section 5 we try to establish a set of guidelines to help DMs choose the financial methods best suited to their specific situations. First, we characterise a set of decision situations, according to the degree of quantification, capital availability for the investments, degree of risk and uncertainty, interdependencies between investments and existence of previously undertaken investments. We try to find out which financial method(s) is (are) best suited for each situation, and how should each characteristic affect the investment selection process. Although this approach is similar to the approach of Fahrni and Spatig [5], there are some important differences between them. One important difference is that, while Fahrni and Spatig focus on R&D projects, we try to consider all kinds of projects. Possibly because of this, our characterisation of the decision situations is different from theirs. Also, while we aim to suggest one financial method for each situation, Fahrni and Spatig never suggest any particular financial method - they treat financial methods as a whole component that shall or shall not be used according to the situation. Next, we try a different approach. We consider some classes of methods and we try to define in which situations should the methods belonging to those classes be used, without following any particular situation taxonomy. We conclude that the net present value (NPV), or other method from the equivalent worth class, is usually the best choice. However, rate of return or ratio methods may be the best suited for some particular situations. We do not exclude that, in many situations, the DMs may want to consider other methods, along with the NPV (or the rate of return or ratio method), due to additional reasons. 2 Financial methods A large number of financial methods is presented in financial textbooks and papers. In this section, we will describe some of the most important financial methods and, following [11,12], we will categorise them into five classes: equivalent worth, rate of return, ratio, payback and accounting. Equivalent worth methods examine the project cash flows and, through discounting or compounding, resolve them to one equivalent cash flow or to an equivalent series of cash flows. The most important of these methods is the net present value (NPV). The NPV is the present monetary value of all the project cash flows (including investment and salvage value) discounted at the appropriate discount rate. The traditional definition of the NPV is: NPV = T X t=0 CFt (1 + r)t (1) where r is the discount rate, CFt is the cash flow in period t and T is the horizon period 4 P.C. Godinho, A.R. Afonso, J.P. Costa / Investigação Operacional, 24 (2004) 1-20 (which is often the project lifetime). The NPV is nowadays considered by many authors to be, in most situations, the best economic profitability measure for investment projects (see, for example, [4]). The future worth (FW), the annual worth (AW) and the capitalised worth (CW) are other equivalent worth methods. The FW is the monetary value of all the project cash flows in a future date, and it can be found through the compounding of the cash flows to that future date. The AW is the value of each of the cash flows of an equivalent project (having the same NPV) with a finite lifetime (usually identical to the lifetime of the original project or to the considered horizon period), whose cash flows are constant over its lifetime. The CW is equal to the AW except that it considers another equivalent project with an infinite lifetime. These methods can be defined in the following way: FW = T X CFt (1 + r)T0 −t = N P V (1 + r)T0 (2) t=0 AW = T P t=0 T P t=1 CW = T P t=0 ∞ P t=1 CFt (1+r)t = 1 (1+r)t CFt (1+r)t 1 (1+r)t = T P CFt (1+r)t t=0 1 1 r − r(1+r)T = T X ! t=0 CFt (1 + r)t 1 r NPV 1 − r(1+r) (3) T · r = NPV · r (4) In the definition of FW, T0 is the future moment for which the FW is calculated. The remaining notation was previously defined. The use of equivalent worth methods must include an adjustment for the risk of the project. This risk can be seen as the possible deviations from the expected project behaviour, and it can be divided into systematic and unsystematic risk. The unsystematic risk can be eliminated by holding a diversified portfolio of investments, and the systematic risk cannot be eliminated by diversification, and it is the only type of risk that should matter to investors with diversified portfolios. Also, financial theory prescribes that only the systematic risk shall be incorporated in the value of financial assets and projects. The measure used for this type of risk is the beta (β) coefficient, defined as the covariance of the asset (or project) returns with the market returns divided by the variance of the market returns. Using the project betas, it is possible to incorporate the systematic risk in the project NPV through the use of a risk-adjusted discount rate, calculated according to the Capital Asset Pricing Model (CAPM). According to the CAPM, if rf is the risk-free discount rate, β is the project beta and E(rm ) is the expected market return, then the correct risk-adjusted rate will be: r = rf + β [E(rm ) − rf ] (5) For more details on the calculation of project betas and risk-adjusted discount rates, see [4]. The adjustment of the discount rate works very well for the NPV, but not for the other equivalent worth methods. In fact, the use of such a risk-adjusted discount rate in the other equivalent worth methods will not correctly adjust for the project risk. To deal with this problem we suggest the adjustment of the cash flows, instead of the adjustment of the discount P.C. Godinho, A.R. Afonso, J.P. Costa / Investigação Operacional, 24 (2004) 1-20 5 rate, by using certainty equivalents of the cash flows ([4], chapter 9). Specifically, r f being the risk-free discount rate and r being the risk-adjusted discount rate, the period t cash flow is adjusted to its certainty equivalent, CE = CFt · 1 + rf 1+r t (6) and then the risk-free discount rate is used. For the NPV, it is indifferent to adjust the discount rate or the cash flows. However, for the other methods, the adjustment of cash flows will allow the correct comparison of projects with different systematic risk. Rate of return methods measure the rate at which the invested capital will grow if the project is pursued. The most widely used rate of return method is the internal rate of return (IRR). This rate can be defined as the discount rate for which the NPV equals zero, and corresponds to the yield-to-maturity on a bond. It can be calculated by solving the following equation: T X CFt (7) t =0 t=0 (1 + IRR) Other methods from the rate of return class include the external rate of return (ERR) and the marginal return on invested capital (MRIC). Both these methods consider an explicit reinvestment rate. The ERR is the rate for which the future worth of the initial investment equals the future worth of the other cash flows compounded, at the reinvestment rate, to the end of the project. Using I0 to represent the initial investment, we can define: T P CFt (1 + r)T −t t=1 (1 + ERR)T = I0 (8) The MRIC is defined in [9]. Two kinds of cash flows are considered - capital cash flows, used to finance the project, and operating cash flows, generated by the project. Capital cash flows are discounted, at the reinvestment rate, to the beginning of the project and operating cash flows are compounded, at the same reinvestment rate, to the end of the project. The MRIC is the rate at which the present value of the capital cash flows should be compounded so that it would equal the future value of the operating cash flows at the end of the project. So, the MRIC can be defined as: T X t=0 CCFt = (1 + r)t T P OCFt (1 + r)T −t t=1 (1 + M RIC)T (9) where CCFt is the capital cash flow for period t and OCFt is the operating cash flow for period t. The most significant ratio methods can be defined as the quotient between the present value of the returns and the present value of the investment. The most widely used ratio method is the profitability index (PI), which is defined as the quotient between the present value of the future cash flows generated by the project and the initial investment: PI = T P t=1 CFt (1+r)t I0 (10) 6 P.C. Godinho, A.R. Afonso, J.P. Costa / Investigação Operacional, 24 (2004) 1-20 Other ratio methods can be defined as the ratio between the present value of the returns and the present value of the investment. The benefit-cost ratio (B/C ratio), for instance, is the quotient between the present value of all cash flows, excluding the initial investment and the salvage value, and the difference between the initial investment and the present worth of the salvage value. If we use SVT to represent the salvage value of the project, we can define: B/C = T P t=1 CFt (1+r)t I0 − − SVT (1+r)T (11) SVT (1+r)T Payback methods calculate how long it takes to recover the invested capital. These methods include the payback period and the discounted payback period. The payback period is the number of years required for the accumulated project cash flows to equal the initial investment. The discounted payback period is similar to the payback period, except that it considers the discounted cash flows instead of the raw cash flows. So, we can define: ( Payback = min k : k X CFt ≥ I0 t=1 ( Discounted Payback = min k : k X t=1 ) CFt ≥ I0 (1 + r)t (12) ) (13) Accounting methods consider profitability from an accounting perspective. This class includes the return on original investment (ROOI, a.k.a. original book method) and the return on average investment (ROAI, a.k.a. average book method), among others. The ROOI is the quotient between the average yearly accounting profit, which excludes depreciation, and the investment made in the project. The ROAI is the quotient between the average yearly accounting profit and the average book value (average value of the difference between investment and depreciation) during the project life. Using APt to represent accounting profit in period t and BVt to represent book value in period t, we can define: T P APt t=1 ROAI = T T P (14) BVt t=0 T +1 T P APt t=1 ROOI = T I0 (15) A further description of most of these financial methods can be found in [11,12]. [4] and [10] also describe some of these methods, discussing its advantages and drawbacks and also discussing the calculation of the discount or compounding rate needed by some of them. 3 Mathematical definitions and results This section provides some mathematical results used to find out which attributes can and which ones cannot be used together as criteria. We consider that, in order to have a correct P.C. Godinho, A.R. Afonso, J.P. Costa / Investigação Operacional, 24 (2004) 1-20 7 structure for the decision problem, we want the set of criteria to be a coherent family of criteria [3]. As was said before, this means that the set of criteria must be exhaustive, cohese and nonredundant. Exhaustiveness means that all relevant criteria are included in the set of criteria. So, if any two alternatives are equal in all criteria they must be indifferent for the DM, or else we must conclude that there is at least one relevant issue that is not properly accounted for by the set of criteria. Cohesion means that if two alternatives, A and B, are equal in all criteria but one, and A is better than B according to that criterion, then A must be preferred to B. A set of criteria is non-redundant if the removal of any criterion causes that set to be no longer both exhaustive and cohese. We will now mathematically define these conditions and we will show that two attributes that rank projects identically will be redundant. Assumptions Let A={a1 , a2 , . . . , an } be the set of projects and F={g1 , g2 , . . . , gm } the set of attributes used as criteria. gk (ai ) will be the performance of project ai according to attribute gk . Let us also assume, without loss of generality, that a larger value in a given attribute is always better than a smaller one. Definitions The symbols P and I will be used as comparison operators: ai P aj means that ai is considered to be preferred to aj and ai I aj means that ai and aj are considered to be indifferent. We will consider that, in order to be a coherent family of criteria, the set F must meet the following exhaustiveness, cohesion and non-redundancy conditions: (Exhaustiveness) ∀ai ,aj ∈A, (gk (ai )=gk (aj ), ∀gk ∈F) ⇒ ai I aj (Cohesion) ∀ai ,aj ∈A, ∀gl ∈F, (gk (ai )=gk (aj ), ∀gk ∈F\{gl }∧ gl (ai ) >gl (aj )) ⇒ ai P aj (Non-redundancy) ∀gp ∈F, ∃ai ,aj ∈A: {[(gk (ai )=gk (aj ), ∀gk ∈F\{gp })∧(ai P aj ∨ aj P ai )] ∨ [∃gl ∈F\{gp }:gk (ai )=gk (aj ), ∀gk ∈F\{gp ,gl }∧gl (ai ) >gl (aj )∧(aj P ai ∨ ai I aj )]} (16) (17) (18) The first part of expression (18) means that if any criterion gp is removed then F will no longer meet the exhaustiveness condition; the second part of that expression means that if any criterion gp is removed then F will no longer meet the cohesion condition. Theorem (attribute redundancy): Let us assume that, for two attributes gr and gs , we have: ∀ ai ,aj ∈A, gr (ai ) >gr (aj ) ⇒ gs (ai ) >gs (aj ) (19) If the criteria set F includes both gr and gs then F is not a coherent family of criteria because, if both the exhaustiveness and cohesion conditions are met, then the non-redundancy condition is not met. Specifically, gr can be removed from F without the exhaustiveness and cohesion conditions ceasing to hold. We thus say that gr is redundant. 8 P.C. Godinho, A.R. Afonso, J.P. Costa / Investigação Operacional, 24 (2004) 1-20 Corollary: If two attributes rank the projects identically, then they will be redundant (only one of them should be used as criterion). Theorem proof: We will show that (a) if F meets the exhaustiveness condition, then F\{gr } also meets the exhaustiveness condition and (b) if F meets the cohesion condition, then F\{gr } also meets the cohesion condition. This will show that gr can be removed from F without the exhaustiveness and cohesion conditions ceasing to hold, thus gr is redundant. Let us start by proving (a). (19) says that gr (ai ) >gr (aj ) ⇒ gs (ai ) >gs (aj ), thus gr (aj ) >gr (ai ) ⇒ gs (aj ) >gs (ai ). This means that we may only have gs (ai )=gs (aj ) when gr (ai )=gr (aj ). So: ∀ ai ,aj ∈A, gs (ai )=gs (aj ) ⇒ gr (ai )=gr (aj ) (20) Also: gk (ai )=gk (aj ), ∀gk ∈F\{gr } ⇒ gs (ai )=gs (aj ) (since gs ∈F\{gr }) ⇒ gr (ai )=gr (aj ) (using (20)) (21) And so: gk (ai )=gk (aj ), ∀gk ∈F\{gr } ⇒ gk (ai )=gk (aj ), ∀gk ∈F ⇒ (using (21)) a i I aj (22) (because F meets the exhaustiveness condition) (22) means that F\{gr } meets the exhaustiveness condition, proving (a). Let us now prove (b). We will prove that, if F meets the cohesion condition (if (17) holds) then F\{gr } will also meet the cohesion condition, meaning that for any projects a i and aj : ∀gl ∈F\{gr }, (gk (ai )=gk (aj ),∀gk ∈F\{gr ,gl }∧gl (ai ) >gl (ak )) ⇒ ai P aj (23) We will start by showing that (23) holds for all gl ∈F\{gs ,gr }. We will thus prove that, for gl ∈F\{gs ,gr }, if gk (ai )=gk (aj ),∀gk ∈F\{gr ,gl }∧gl (ai ) >gl (ak ) then ai P aj . Since gk (ai )=gk (aj ), ∀gk ∈F\{gr ,gl }, and gl ∈F\{gs ,gr }, then we have gs (ai )=gs (aj ) and, by (20) we have gr (ai )=gr (aj ). So: gk (ai )=gk (aj ), ∀gk ∈F\{gr ,gl }∧gl (ai ) >gl (aj ) ⇒ ⇒ gk (ai )=gk (aj ), ∀gk ∈F\{gl }∧gl (ai ) >gl (aj ) ai P aj (since the cohesion condition holds) (24) P.C. Godinho, A.R. Afonso, J.P. Costa / Investigação Operacional, 24 (2004) 1-20 9 To complete the proof, we will show that (23) holds for gl =gs . From (19) we can say that gs (ai ) ≤gs (aj ) ⇒ gr (ai ) ≤gr (aj ) and, consequently: gs (ai ) >gs (aj ) ⇒ gr (ai ) ≥gr (aj ) (25) Using (25) we get, for gl =gs : gk (ai )=gk (aj ), ∀gk ∈F\{gr ,gs }∧ gs (ai ) >gs (aj ) ⇒ gr (ai ) ≥gr (aj ) (26) Let us analyse the expression (26). It says that ai and aj are equal in all criteria except gs and, possibly, gr . Since F meets the cohesion condition, if gr (ai )=gr (aj ), then we have ai P aj (because gs (ai ) >gs (aj ). If ai is also better than aj in gr , then ai is also considered to be preferred to aj . So: gk (ai )=gk (aj ), ∀gk ∈F\{gr ,gs }∧ gs (ai ) >gs (aj ) ⇒ a i P aj (27) We showed that (23) holds for all attributes gl ∈F\{gr }. So, if F meets the cohesion condition, F\{gr } also meets the same condition. (22) shows that if F meets the exhaustiveness condition, then F\{gr } also meets the same condition. This means that, when (19) holds, gr will be redundant, so the theorem proof is complete. The corollary of this theorem can now be used to find redundant attributes. Whenever two different attributes rank projects identically, they shall not be used together as criteria, since they will be redundant. 4 On the simultaneous use of different financial attributes In this section we will try to find out which financial attributes can, and which ones cannot, be used together as criteria. For that purpose we will initially consider financial attributes from the same class, and then we will consider attributes from different classes. In this analysis we will assume that we want the set of criteria to be a coherent family of criteria, and also to be based on non-contradictory assumptions or concepts. We will want the set of criteria to be not only a coherent family of criteria, but also to be based on non-contradictory assumptions or concepts. We acknowledge that, in the presence of risk, it may be worthwhile to consider the behaviour of the project under different scenarios (as will be discussed in section 5). However, the data and methods used in each scenario should not include contradictory assumptions or concepts, so that each scenario represents a consistent possibility of project behaviour. In the following discussion, we will only consider the financial methods presented in section 2, which include the most common financial methods. We believe our conclusions are extensible to other methods, if these methods can be properly classified into one of the five classes we are considering. In the analysis of financial attribute redundancy, we will not discuss whether or not two attributes happen to rank the projects identically for a particular set of projects. We 10 P.C. Godinho, A.R. Afonso, J.P. Costa / Investigação Operacional, 24 (2004) 1-20 will only consider that two attributes are redundant if they always rank projects identically. This way, our results will be independent of any particular set of projects, and will still be valid when some projects are removed from or added to the initial set. To start with, we will address the simultaneous use of different financial attributes from the equivalent worth class. Several constraints must be met by the methods from this class, so that they can be properly applied. One example: the projects being compared should have the same discount rate1 [11]. It is easy to prove that, when properly applied, all equivalent worth methods rank projects identically. Let us consider the NPV and the CW. We will assume that the discount/reinvestment rate belongs to the interval ]-1,+∞[, in which it has economic meaning, and that the projects being compared have the same discount rate, even if it is necessary to use certainty equivalent cash flows to achieve that. So, the CW will be equal to the NPV divided by the perpetuity factor, ∞ P t=1 1 . (1+r)t Since, for r≤0, the perpetuity factor is +∞, the CW is only defined for r>0, in which case the perpetuity factor equals 1r . So, we must assume r>0, in which case: NPV(ai ) > NPV(aj ) ⇔ ⇔ NPV(ai )·r > NPV(aj )·r CW(ai ) > CW(aj ) (28) So, the NPV and the CW rank projects identically. Park and Sharp-Bette [10], chapter 7, show that the NPV, the AW and the FW rank projects identically. Thus, according to the non-redundancy demand of a coherent family of criteria, at most one attribute from the equivalent worth class should be used as criterion. The interpretation of the NPV provides some advantages over the other equivalent worth attributes, so the NPV will usually be used. However, special circumstances may advise the use of a different attribute. We will now consider the rate of return methods. It is well known that different rate of return methods may rank the same projects differently. That is because the results obtained depend on the reinvestment assumptions and on the implicit concepts of investment and return for each method. While the IRR assumes that the profits are reinvested at a rate equal to the IRR, the ERR and the MRIC consider an explicit reinvestment rate. The ERR differs from the MRIC on the concepts of investment and return. While the MRIC considers investment to be all the capital cash flows, the ERR considers investment to be only the initial investment. As different rate of return methods can yield contradictory results, we cannot say that rate of return attributes are redundant. However, in general only one should be used, chosen according to the DM’s reinvestment assumptions and concepts of investment and return. If more than one rate of return attribute is used in the evaluation process, then contradictory assumptions or concepts will be simultaneously involved. Like the rate of return methods, ratio methods may also rank the same projects differently. That is because they also assume different concepts of investment and return. While the PI assumes investment to be the initial investment and all the other cash flows to be return, the B/C ratio assumes investment to be the difference between the initial investment and its salvage value, and return to be all the other cash flows excluding the salvage value. Thus, 1 The adjustment of cash flows, suggested in section 2, allows us to use the same discount rate for all the projects, even when the project risk is different. P.C. Godinho, A.R. Afonso, J.P. Costa / Investigação Operacional, 24 (2004) 1-20 11 as different ratio methods may rank projects differently, we cannot say that their results are redundant. However, only one ratio attribute should be usually used, chosen according to the DM’s concepts of investment and return. Accounting methods differ in what they consider relevant about the investment. While the ROOI assumes that the whole value of the investment (the whole book value) matters, the ROAI assumes that it is the average book value, after the yearly depreciation, that matters. So, these methods can yield different results, according to the type of depreciation associated with each project, and thus they are not redundant. However, a DM will usually want to use at most one accounting attribute, according to what he/she thinks is more significant about the investment: the whole book value or the average book value. Moreover, because these methods do not take the time value of money into account, it is arguable that a DM will consider them relevant. Accounting attributes should only be used when accounting issues are considered important. Payback methods may rank the same projects differently, and lead to different accept/reject decisions. That is because while the discounted payback period takes the time value of money into account, the payback period does not. This means they are not redundant, but usually at most one of them will be used, according to whether or not the time value of money is considered important. A DM will usually consider the time value of money relevant and will thus prefer the discounted payback period. We will now consider the simultaneous use of attributes from different classes. To start with, we will try to figure out which perspective, or dimension, of the profitability does each class address. The equivalent worth class addresses the absolute value of the project, accounting methods address the accounting profitability and payback methods address the time it takes to recover the initial investment, or the liquidity recovery speed. As for the rate of return and ratio classes, we can see that for each ratio method we can find out or define a rate of return method that is equivalent in the sense that it ranks projects in the same way and always leads to the same accept/reject decisions. The opposite is also usually true 2 . As an example, we can see that the PI is equivalent to the ERR, thus they are redundant. For the MRIC, we can define an equivalent ratio method (let us call it Modified Profitability Index, MPI) as: MPI = T P t=1 T P t=0 OCFt (1+r)t (29) CCFt (1+r)t where OCFt is the operating cash flow in period t, CCFt is the capital cash flow in period t, r is the discount rate (equal to the MRIC reinvestment rate) and T is the horizon period. Once more, if we assume that the rate r belongs to the interval ]-1,+∞[, in which it has economic meaning, and that this reinvestment rate is equal for both projects, we have: MRIC(ai ) > MRIC(aj ) ⇔ 1 + MRIC(ai ) > 1 + MRIC(aj ) 2 For each rate of return method that uses an external rate to resolve all the cash flows into two cash flows, we can define a ratio method that is equivalent. This is the case of the ERR and the MRIC. 12 P.C. Godinho, A.R. Afonso, J.P. Costa / Investigação Operacional, 24 (2004) 1-20 ⇔ v v u T u T uP uP T −t T −t u u u t=1 OCFt (aj ) · (1 + r) u t=1 OCFt (ai ) · (1 + r) T T u >u u u T T P P t t CCFt (aj ) CCFt (ai ) t=0 ⇔ (1 + r)T T P t=1 T P t=0 ⇔ T P t=1 T P t=0 OCFt (ai ) (1+r)t CCFt (ai ) (1+r)t (1+r)t OCFt (ai ) (1+r)t t=0 > (1 + r)T CCFt (ai ) (1+r)t > T P t=1 T P t=0 OCFt (aj ) (1+r)t T P t=1 T P t=0 (1+r)t OCFt (aj ) (1+r)t CCFt (aj ) (1+r)t CCFt (aj ) (1+r)t ⇔ MPI(ai ) > MPI(aj ) (30) So, the MRIC and the MPI rank projects identically. Park and Sharp-Bette [10], chapter 7, show that some rate of return and ratio methods, including the ERR and the PI, rank projects identically. It would also be easy to define a rate of return method equivalent to the B/C ratio. This relation between rate of return and ratio methods led us to the conclusion that they would probably address the same profitability dimension. And, in fact, they both address the relation between the return and the investment. Thus, as both classes address the same dimension, we should usually use at most one attribute from both these two classes. As for the other classes, since they address different profitability dimensions, attributes from different classes can be simultaneously used as criteria, given that they are not based on contradictory assumptions or concepts. Table 1 summarises these results. In this section we dealt with the simultaneous use of different financial attributes as criteria. We concluded that a DM will usually want to use at most one financial attribute from a single class, and that a DM may use together financial attributes from different classes, but he/she will usually want to use at most one attribute from both the ratio and rate of return classes. 5 On the selection of financial methods In this section we will try to establish a set of guidelines to help DMs choose the financial methods best suited to their specific situations. First, we will consider that the different decision situations are defined according to five characteristics: degree of quantification, capital availability for the investments, degree of risk and uncertainty, interdependencies between investments and existence of previously undertaken investments. We will try to define how each of these characteristics shall be considered in the investment selection process. Next, we will consider different financial methods, and define in which situations shall each method be used. The degree of quantification defines whether or not financial methods can be used to evaluate the investments. In fact, financial methods cannot be used unless quantitative data about the investment costs and returns are available. The specific needs depend on the chosen methods, and can vary from the project cash flows (required by the NPV and IRR, for instance) to more detailed accounting data (required by accounting methods). So, when quantitative P.C. Godinho, A.R. Afonso, J.P. Costa / Investigação Operacional, 24 (2004) 1-20 13 Table 1: Simultaneous use of different financial attributes, assuming that a coherent family of criteria is wanted. Class Attributes considered Equivalent Worth NPV FW AW CW IRR ERR MRIC Rate of Return Ratio PI B/C Ratio Payback Payback Discounted Payback Accounting ROOI ROAI Simultaneous use (same class) Just one attribute. Simultaneous use (different classes) Attributes from all the other classes can be simultaneously used. Just one attribute, chosen according to the DM’s reinvestment assumptions and concepts of investment and return. Just one attribute, chosen according to the DM’s reinvestment assumptions and concepts of investment and return. Just one attribute, chosen according to the DM’s perceived importance of the time value of money. Just one attribute, chosen according to the DM’s concept of investment. Attributes from all the other classes except ratio can be simultaneously used. Attributes from all the other classes except rate of return can be simultaneously used. Attributes from all the other classes can be simultaneously used. Attributes from all the other classes can be simultaneously used. 14 P.C. Godinho, A.R. Afonso, J.P. Costa / Investigação Operacional, 24 (2004) 1-20 data are not available, different methods (other than financial) must be used to evaluate the investments. In this paper we will not address the evaluation of investment projects in the absence of quantitative information. Capital availability for the investments is, perhaps, the most important characteristic to be accounted for when selecting the financial method(s) to be used (when quantitative data are available), so we will discuss it in some detail. We will start by making some considerations about management goals and NPV application. It is usually considered that the management goal should be the maximisation of the company value. The company value is maximised when all the investment projects with a positive NPV are undertaken, so many authors consider that the NPV should be the preferred method to evaluate investment projects (see, for instance, [4]). However, the use of NPV has some implicit assumptions - it assumes that markets are efficient and that the intermediate cash flows can be reinvested at the discount rate in investments with a similar systematic risk. About the first assumption, Brealey and Myers [4] say the NPV will only be weakened when the company owners cannot access an efficient capital market. About the second assumption, we think that, if the discount rate is properly calculated, it will usually be met. Even if one of these assumptions does not hold, it is not always certain the existence of a better method other than the NPV for the considered situation (although in some specific cases better methods can be found). From what was said we can conclude that, when unlimited capital is available for the investments, the NPV should be the preferred method. Now, the following question can be made: will any other methods be appropriate for this situation? In the previous section it was said that all equivalent worth methods will yield equivalent results when properly applied, so any other equivalent worth method can be used instead of the NPV. Methods from other classes will not always lead to value maximisation, so they will not usually be as appropriate for this situation as equivalent worth methods. However, there may be circumstances that do not advise the use of the NPV nor the use of any other equivalent worth method. One of these circumstances, which was previously referred in this section, has to do with the unavailability of proper quantitative data and, when this happens, non-financial attributes should be used. Other circumstances have to do with the NPV assumptions (which are also implicit to the other equivalent worth methods). For example, if the reinvestment assumption does not hold, then maybe we can find a method from other class that conforms the reinvestment situation 3 . When it is considered that equivalent worth methods should not be used, rate of return and ratio methods should be preferred to payback and accounting methods, since the former do usually lead closer to value maximisation than the latter. We will now suppose that the available capital for the investments is limited and known. In this situation, it is seldom possible to undertake all investment projects with a positive NPV, because the capital needed to finance all those investments may exceed the available capital. Thus, the management should usually aim to build a portfolio of projects with an aggregate NPV as high as possible. If all the available investment projects are known (which is what usually happens when companies are preparing their annual investment plan), NPV maximisation may be achieved by solving a mathematical programming problem. The variables of this problem will be the projects, their coefficients in the objective function will be the projects NPVs and the constraints will be the capital limitations for the considered periods 4 . 3 Another possible solution to this problem may be the definition of a new equivalent worth method , based on an existing one (possibly the NPV), that will assume a different reinvestment situation. 4 Such a problem can consider several periods, with capital limitations in each period. P.C. Godinho, A.R. Afonso, J.P. Costa / Investigação Operacional, 24 (2004) 1-20 15 See [10], chapter 8, for a survey of some mathematical programs for the optimal selection of a set of projects. Notice that any other equivalent worth method could be used instead of the NPV to build this mathematical program. Also notice that, in some circumstances, the NPV assumptions may not be met and, thus, methods from the equivalent worth class will be rendered inappropriate. When equivalent worth methods cannot be applied, one may think the use of a mathematical program to maximise an aggregate rate of return or an aggregate ratio as the best approach. However, rate of return and ratio attributes are not additive, resulting probably in a complex non-linear mathematical programming problem. We think that a heuristic approach could consist in ordering the profitable projects according to an adequate rate of return or ratio attribute, and choosing the more profitable projects until no other profitable project can be chosen without going beyond the available amount of capital. Asquith and Bethel [2] argue that, if not all positive NPV projects are funded, then the use of such a heuristic may also be preferable to the use of a NPV-based rule when forecast biases are present in the cash flow estimates and information about these biases is costly to obtain. Sometimes it is known that the available amount of capital is not unlimited, but the limit is not known. An ordering of the investment projects according to their profitability will be wanted in this situation, with non-profitable projects being commonly excluded from that ordering. Usually an ordering will be wanted such that, if projects are chosen accordingly, the aggregate NPV will be maximised. Notice that the NPV will not be a good ordering criterion. If we were to order projects according to the NPV, a project with a high NPV but needing a very large investment might be considered better than other projects with only slightly lower NPVs and much smaller investment required. As the available capital is limited, the latter projects should be preferred to the former, so the ordering obtained through the use of NPV would not lead to the maximisation of the aggregate NPV. In this situation, it would be better to order projects according to an attribute from either the rate of return class or the ratio class. Since methods from these classes evaluate the relation between the return and the investment, projects with a higher return for each unit of invested capital will be rated higher. Thus, value maximisation may be approximated if projects are ordered by using such an attribute. When the available capital for investment projects is limited (known or unknown), it may happen that the available amount is to be used not only with the investment proposals currently known but also with possible investments to be proposed in a future period. As an example, consider a company that has just raised a reasonable amount of capital and knows it will be very difficult to raise more capital in the near future. Notice that the uncertainty about which investment projects will be proposed in the future can occur both when the amount of available capital is known and when it is not known. An NPV-based ordering and selection of investment projects will be inappropriate in this situation, and a better selection process may be achieved with a rate of return or ratio method. We think this process should consist in the determination of a hurdle rate (or hurdle ratio) and in the selection of all investment projects having higher rates than that hurdle rate on the financial attribute chosen to make the decision. Historical data about past investment proposals considered by the company should be used to determine the hurdle rate, when available. This hurdle rate should be periodically re-examined according to the investments that have been proposed since its last calculation. The degree of risk and uncertainty is not usually relevant to the choice of the financial methods. However, it will be important to the selection process, both because it may determine 16 P.C. Godinho, A.R. Afonso, J.P. Costa / Investigação Operacional, 24 (2004) 1-20 whether or not risk analysis should be performed and because risk should be incorporated in the evaluation of the projects. If the situation faced by the DMs is close to certainty, risk can usually be neglected. On the other hand, when the situation is not close to certainty, risk analysis should be performed on the investment projects. The risk analysis tools should be chosen according to the available data. Monte Carlo simulation may give accurate information about the statistical distribution of the financial attributes, but it cannot be used unless there are available data about the probability distributions of the relevant variables and a detailed model of the investment projects is built accordingly [4]. Under some assumptions about the distribution and statistical independence of the relevant variables, the variance can be calculated for some financial attributes, and it can be used as a measure of the total project risk [8]. Sensitivity, scenarios and break-even analysis demand less data than Monte Carlo simulation and may provide useful information about the investments [4]. Scenario analysis may be particularly useful, since it allows the DM to assess how the project will behave under different circumstances. Each scenario will be defined by a set of assumptions, and will represent a consistent possibility of project behaviour. It is thus possible that different methods make sense in different scenarios of the same project, according to the assumptions of those scenarios. There are also several methods to incorporate risk in project evaluation. Some of them, like the certainty equivalent method that was referred in section 2, are based on the adjustment of the cash flows. Others, like the use of the CAPM, are based on the incorporation of risk in the discount or compounding rates (when discounting or compounding based methods are being used), or in the hurdle rate (when rate of return methods are being used). When some sequential decisions must be made according to the outcomes of various events, decision trees may be used to represent and evaluate the project. Recently, Option Pricing Theory has gained a wide acceptance in the evaluation of investment projects. Option Pricing Theory provides another tool for the calculation of the project NPV when an active management of the project may influence its value, for example by reducing losses when the outcome is unfavourable or by increasing profits when the outcome is favourable. When options are involved, both the traditional discounted cash flow analysis (as performed by expression (1)) and the use of decision trees may fail to correctly incorporate risk in the value of the project [14] and option analysis may provide more accurate project values (see [4,14,15], for example, for more details). Although both option valuation and decision trees are primarily used for the calculation of the project NPV, other methods that can be based on the project value may also be adapted to these types of valuations. When a multicriteria evaluation of investment projects is being performed, risk also can be incorporated through one or more attributes. Some financial attributes are sometimes used as risk proxies - in a NPV based evaluation, some rate of return or payback attributes can be used as risk proxies. For a complete description of some risk analysis and risk incorporation techniques, see [4,7,15]. For multicriteria models that incorporate risk, see [6] and the chapter 3 of [7]. Interdependencies are usually typified as synergies (positive or negative), mutual exclusion and technical dependence. We can say there are synergies between investments A and B when the financial attributes of A change depending on whether or not B is pursued. Investments A and B are mutually exclusive if the investments cannot be both pursued – that is, if one of them is pursued, the other cannot be. Finally, we say that A is technically dependent on B if A cannot be pursued unless B is pursued. P.C. Godinho, A.R. Afonso, J.P. Costa / Investigação Operacional, 24 (2004) 1-20 17 Interdependencies can be dealt with mathematical programming, in a similar way as the one referred when we considered that the available capital was limited and known. However, when we are dealing with non-additive financial attributes such a program is complex, and it may be difficult to solve. When this happens, it is often useful to change all interdependencies into mutual exclusion. When synergies exist between two investment projects, A and B, we can turn these two investment projects into three mutually exclusive projects: project A, project B and project AB, the latter of which consists in pursuing both projects A and B. Also, when A is technically dependent on B, we can consider two mutually exclusive projects: B and AB, the latter of which consists in pursuing both projects A and B. All interdependencies can be thus turned into mutual exclusion, usually easier to deal with. For example, if a selection process consists in ordering all projects according to an attribute, and then selecting projects according to that order, it is very easy, after each project is selected, to seek and exclude all the projects mutually exclusive with the selected project. Combinatorial analysis can also be a very effective tool to deal with interdependencies. The selection process may be affected by the existence of a portfolio of previously undertaken investment projects. If such a portfolio does exist, it may or may not be possible to abandon the previously undertaken projects. The existence of previously undertaken projects that can be abandoned may be dealt with by considering these projects at the same level of the newly proposed projects. When re-evaluating existing projects, care should be taken not to consider unrecoverable costs or past benefits, and to properly consider their present salvage values as opportunity costs (the costs of not selling the assets needed to continue the projects). These present salvage values correspond to the investment cost in new projects. After this, the process may proceed as if there were no previously undertaken projects. If the previously undertaken projects cannot be abandoned, then it is not necessary to re-evaluate these projects. However, some care should be taken in the selection process, because it will still be necessary to consider the interdependencies between existing projects and new projects, as well as the capital requirements of existing projects. Interdependencies may eliminate some new projects (when there is mutual exclusion), or change the financial attributes of some of them (when there are synergies). When the available capital for the investments is limited, the capital requirements of existing projects must be subtracted from the available amount. After this, the selection process may proceed normally. Thus far we have considered the decision situations defined by a set of five characteristics, and we have explained how should each of those characteristics affect the investment selection process. We argued that equivalent worth attributes should usually be used, and that rate of return and ratio attributes should be used in particular situations instead of equivalent worth attributes. Some questions may now be made, concerning whether or not accounting and payback methods should ever be used. We will now address this issue. Firstly, we will consider accounting methods. Only by chance these methods will lead to aggregate NPV maximisation. This means that they should only be used when the DMs’ goal is different from that. So, when will DMs use accounting methods ? The only answer we have to this question has to do with the way the company’s results are made available to stakeholders, which is usually in the form of accounting statements. If accounting methods are used, it may be possible to present better accounting results and it is possible that stakeholders will be happier and, thus, it may be easier for the company to raise money and managers may 18 P.C. Godinho, A.R. Afonso, J.P. Costa / Investigação Operacional, 24 (2004) 1-20 get better rewards. However, there are two severe drawbacks to this strategy. The first is that it is a short term strategy - in the long term, accounting results will have a higher growth when decisions are made to maximise the company value than when accounting methods are the only criteria to select investments. The second is that intelligent and well informed stakeholders will look beyond accounting results to get a clearer picture of the company, and this picture will be more favourable if the management is aiming to maximise the company value than if it is aiming to maximise short term accounting results. We will now turn to payback methods. Some reasons may be presented for the use of these methods. One of these reasons may be the existence of catastrophic or political risks that may cause the company to lose, at any moment, the assets on which it invested, and so the company may want to recover the invested capital as soon as possible. We do not think this is always valid, because these risks can be accounted for, either through a proper adjustment of the discount rate or through an adjustment of the predicted cash flows, when equivalent worth, rate of return and ratio methods are used. Another reason has to do with the need of quickly obtaining liquidity, when it is difficult to raise capital either for new investment projects or for financial engagements of the company (the need to pay interests or principal in existing debts, for instance). Notice that such situations will be related to capital markets imperfections. We think that, in these situations, the use of mathematical programming to maximise the aggregate NPV according to some constraints that have to do with liquidity necessities will provide better results than the use of payback methods, if data are available. However, in these situations, we cannot find any reason to oppose the use of a payback attribute along with an equivalent worth attribute in a multicriteria evaluation. We will present another reason that is also related with possible capital markets imperfections. When the owners of the company may need money at any time and cannot access an efficient capital market either to raise money for their needs or to sell their stakes in the company, they may want the company to have high liquidity as often as possible. It can be argued that, in this situation, payback methods will provide the best results to satisfy the company owners wishes. Nevertheless we think that the use of mathematical programming to maximise the aggregate NPV, according to a set of constraints that represent the possible needs of the company owners, may provide better results. Once again, in this situation we cannot find any reason to oppose the use of a payback attribute along with an equivalent worth attribute in a multicriteria evaluation. In this section we have considered that the decision situations are defined by a set of characteristics, and we have explained how should each of those characteristics affect the investment selection process. We concluded that equivalent worth attributes should usually be used, and that rate of return and ratio attributes should be used in particular situations instead of equivalent worth attributes. Then, we tried to find some situations in which the use of accounting or payback methods might be appropriate. We concluded that accounting methods might be used to achieve good short-term accounting results, but not to maximise long-term accounting results. We considered the use of payback methods to account for the company’s or its owners’ liquidity needs (particularly when capital markets are imperfect) and also when the company faces political or catastrophic risks. We argued that equivalent worth methods (eventually within a mathematical programming problem) are best suited for those situations, but we could not find any reason to oppose the use of a payback attribute along P.C. Godinho, A.R. Afonso, J.P. Costa / Investigação Operacional, 24 (2004) 1-20 19 with an equivalent worth attribute in a multicriteria evaluation, in those situations. 6 Conclusions This paper addressed the analysis and evaluation of investment projects within a multicriteria framework. In this framework, all the properties, or characteristics, of the investments are modelled as attributes. The decision criteria are chosen from the attribute set. In order to have a correct structure for the decision problem, we defined that the set of criteria should be a coherent family of criteria, and should not include contradictory assumptions. We started with a presentation of the most common methods for project evaluation. In this presentation, we classified the methods into five classes, following a similar classification from [11,12]. Then we mathematically defined the conditions that must be met by the set of criteria in order to be a coherent family of criteria, and presented a mathematical result that states that two criteria that order projects identically will be redundant. The first problem we dealt with was to find out which financial attributes can, and which ones cannot, be used together as criteria. We concluded that attributes from the same class either rank projects identically or are based in contradictory assumptions, so a DM will usually use at most one attribute from a single class. Attributes form different classes address different perspectives, or dimensions, of the profitability, with the exception of the rate of return and ratio classes, which both address the relation between the return and the investment. We also stated that, for each ratio method, it is possible to define a rate of return method that ranks projects identically, and that the converse is also usually true. So, according to our framework, a DM may simultaneously use attributes from different classes, but he/she will usually want to use at most one attribute from both the classes of ratio and rate of return methods. Then, we tried to establish a set of guidelines to help DMs choose the financial methods best suited to their specific situations. We considered a set of characteristics of the decision situation – degree of quantification, capital availability for the investments, degree of risk and uncertainty, interdependencies between investments and existence of previously undertaken investments - and analysed how these characteristics affect the investment selection process. The degree of quantification defines whether or not financial methods can be used. When unlimited capital is available, or when the available capital is limited and known, equivalent worth methods should usually be used. However, when the available capital is limited and the limit is unknown, or when the available capital must also be used in future projects not yet known, rate of return and ratio methods may be a better choice, even if the ultimate goal is the maximisation of aggregate NPV. In the presence of risk, it will be important to incorporate the risk in the project evaluation, and to perform risk analysis. We briefly referred some methodologies for risk analysis and for the incorporation of risk in project evaluation. We explained that interdependencies could be dealt with through the use of mathematical programming and combinatorial analysis. Finally we explained that, if a portfolio of previously undertaken projects exists, these projects should be re-evaluated, and their interdependencies with new projects and effect in the available capital (if the available capital is limited) must be considered in the evaluation process. Since the analysis of the characteristics of the decision situation seemed to never recommend the use of accounting and payback methods, we also tried to define in which situations 20 P.C. Godinho, A.R. Afonso, J.P. Costa / Investigação Operacional, 24 (2004) 1-20 might these methods be used. We concluded that accounting methods might be used to achieve good short-term accounting results, but not to maximise long-term accounting results. We considered some situations in which the use of payback methods seemed appropriate. Analysing these situations, we always concluded that equivalent worth methods (eventually within a mathematical programming problem) might be best suited to those situations. However, we could not find any reason to oppose the use of a payback attribute along with an equivalent worth attribute in a multicriteria evaluation, in those situations. 7 References [1] Afonso, A.R., Godinho, P.C. and Costa, J.P., Estruturação dos Critérios de Avaliação e Selecção de Projectos no Âmbito de um Sistema de Apoio à Decisão (in Portuguese), Portuguese Journal of Management Studies, IV (1999) 267-289. [2] Asquith, D. and Bethel, J.E, Using Heuristics to Evaluate Projects: the Case of Ranking Projects by IRR, The Engineering Economist, 40 (1995) 287-294. [3] Bana e Costa, C., Structuration, Construction et Exploration d’un Modèle Multicritère d’Aide à la Décision (in French), PhD Thesis, Instituto Superior Técnico, Lisbon, Portugal (1992). [4] Brealey, R. and Myers, S., Principles of Corporate Finance, 6th edition, McGraw-Hill (2000). [5] Fahrni, P. and Spatig, M., An Application-Oriented Guide to R&D Project Selection and Evaluation Methods, R&D Management, 20 (1990) 155-171. [6] Godinho, P.C. and Costa, J.P., A Note on the Use of Bicriteria Decision Trees in Capital Budgeting, Global Business and Economics Review, 4 (2002) 147-158. [7] Hertz, D.B. and Thomas, H., Risk Analysis and its Applications, 1st Edition, John Wiley and Sons (1983). [8] Hillier, F.S., The Derivation of Probabilistic Information for the Evaluation of Risky Projects, Management Science, 9 (1963) 443-457. [9] McDaniel, W.R., McCarty, D.E. and Jessel, K.A., Discounted Cash Flow with Explicit Reinvestment Rates: Tutorial and Extension, The Financial Review, 23 (1988) 369-385. [10] Park, C.S. and Sharp-Bette, G.P., Advanced Engineering Economics, 1st Edition, John Wiley and Sons (1990). [11] Remer, D.S. and Nieto, A.P., A Compendium and Comparison of 25 Project Evaluation Techniques. Part 1: Net Present Value and Rate of Return Methods, International Journal of Production Economics, 42 (1995) 79-96. [12] Remer, D.S. and Nieto, A.P., A Compendium and Comparison of 25 Project Evaluation Techniques. Part 2: Ratio, Payback and Accounting Methods, International Journal of Production Economics, 4 (1995) 101-129. [13] Roy, B., Multicriteria Methodology for Decision Aiding, Kluwer Academic Press, Dordrecht (1996). [14] Trigeorgis, L. and Mason, S.P., Valuing Managerial Flexibility, Midland Corporate Finance Journal, Spring (1987) 14-21. [15] Trigeorgis, L., Real Options: Managerial Flexibility and Strategy in Resource Allocation, The MIT Press (1996). C.M. Alves, J.V. Carvalho / Investigação Operacional, 24 (2004) 21-43 21 Planeamento de Rotas num Sistema de Recolha de Desperdı́cios de Madeira Cláudio Manuel Martins Alves ∗ ∗ José Manuel Valério de Carvalho ∗ Departamento de Produção e Sistemas, Universidade do Minho {claudio,vc}@dps.uminho.pt Abstract In this paper, we analyze a new vehicle routing problem, the Prize Collecting Vehicle Routing Problem with Service Restrictions (PCVRPsr), which arises in wood-waste collection. It is a problem with a homogeneous fleet and a unique depot, in which the visit to some clients in not compulsory, but conditioned by the total needs of waste. We propose a formulation for this problem, which comes from a three-index vehicle flow formulation for the Vehicle Routing Problem. To optimize the plan, we explore methods based on decomposition. We analyze, in particular, the Dantzig-Wolfe decomposition applied to this formulation, and a branchand-price scheme to find integer solutions. An algorithm was developed to obtain the computational results discussed at the end of the paper. In the branch-and-price tree, we applied a method for deriving lower bounds for the bin-packing problem, based on dual feasible functions, that makes the process more efficient. Resumo Neste artigo, analisa-se um novo problema de planeamento de rotas, o Prize Collecting Vehicle Routing Problem with service restrictions (PCVRPsr), sugerido por um caso de recolha de desperdı́cios de madeira. É um problema onde a frota é homogénea, o depósito único e em que a visita a alguns clientes não é obrigatória, mas condicionada pelas necessidades totais de desperdı́cios. Propõe-se uma formulação para este problema que deriva de um modelo de fluxo de três ı́ndices para o problema de planeamento de rotas de veı́culos. Para a optimização do plano de rotas, exploraram-se métodos de decomposição. Analisase, em particular, a aplicação do método de decomposição de Dantzig-Wolfe à formulação proposta e, para a obtenção de soluções inteiras, o método de partição e geração de colunas (branch-and-price). Foi desenvolvido um algoritmo com o qual se obtiveram os resultados computacionais que analisamos na parte final do artigo. No algoritmo de pesquisa em árvore, foi aplicado um método de determinação de limites inferiores para o problema de empacotamento, baseado em funções duais válidas, que torna o processo mais eficiente. c 2004 Associação Portuguesa de Investigação Operacional 22 C.M. Alves, J.V. Carvalho / Investigação Operacional, 24 (2004) 21-43 Keywords: Routing, Transportation, Integer Programming Title: Vehicle Routing in a Wood Waste Pickup System 1 Introdução O sistema de recolha em estudo é constituı́do por um conjunto de unidades distribuı́das (fábricas de serração, superfı́cies comerciais, produtores de mobiliário) que geram desperdı́cios de madeira como fruto da sua actividade produtiva e por um fabricante de aglomerados que se encarrega de recolher com os seus próprios meios aquilo que para ele representa uma matéria prima barata. Nesse contexto, um dos problemas que enfrenta o fabricante consiste em determinar um plano económico de recolhas atendendo às condições especı́ficas do seu sector. O fabricante tem um duplo objectivo. Por um lado, recolher os desperdı́cios necessários à sua laboração. Por outro, assumir plenamente o seu papel de agente ecológico, garantindo o serviço aos clientes cujos nı́veis de desperdı́cios acumulados estejam acima de um determinado patamar. Distinguem-se assim duas classes de clientes: os que têm que ser obrigatoriamente visitados e aqueles que só o são se as necessidades periódicas do fabricante não puderem ser satisfeitas com os primeiros. Desta forma, um cliente com um nı́vel de desperdı́cios baixo pode não ser visitado. Do ponto de vista económico, o planeamento visa a minimização dos custos variáveis de operação dos veı́culos, considerados proporcionais à distância total percorrida (como acontece frequentemente na prática, assume-se que as matrizes de distâncias e tempos de trânsito obedecem ao princı́pio de desigualdade triangular). Para tal, o fabricante dispõe de uma frota virtualmente ilimitada de veı́culos de igual capacidade e de um depósito único. As descargas são exclusivamente efectuadas nesse depósito, onde se iniciam e terminam todas as rotas. A duração de cada rota é naturalmente limitada à duração de um turno de trabalho. Os clientes, as unidades cujos desperdı́cios de madeira são recolhidos, não impõem qualquer restrição à operação dos veı́culos. Um veı́culo pode visitar um cliente a qualquer momento do dia, procedendo de imediato à recolha, com a única garantia do levantamento da totalidade dos desperdı́cios disponı́veis. Dessa forma, no horizonte de um planeamento, um cliente é visitado por apenas um veı́culo. No problema clássico de planeamento de rotas de veı́culos, designado na literatura anglosaxónica por Vehicle Routing Problem (VRP), todos os clientes têm de ser visitados. No Prize Collecting Travelling Salesman Problem introduzido por Balas [3], essa condição é relaxada: um cliente pode não ser visitado incorrendo-se por isso numa penalização contabilizada directamente no custo total da solução. No problema em estudo, não visitar um cliente com um nı́vel baixo de desperdı́cios implica uma economia imediata dos custos de deslocação até esse cliente. Contudo, ao abdicar dos seus desperdı́cios, incorre-se numa penalização indirecta igual ao custo da visita a outro cliente do mesmo tipo, visita que passa a ser necessária em virtude das necessidades do fabricante. Os prémios que define o PCTSP correspondem agora aos nı́veis de desperdı́cios de alguns clientes. Por essas razões, designaremos o problema por Prize Collecting Vehicle Routing Problem with service restrictions (PCVRPsr). As restrições de serviço referem-se à imposição de serviço aos clientes com contentores cheios. Na Secção 2, apresentamos um modelo genérico de fluxo de três ı́ndices para o VRP. C.M. Alves, J.V. Carvalho / Investigação Operacional, 24 (2004) 21-43 23 O modelo de fluxo de três ı́ndices para o PCVRPsr, introduzido na Secção 3, deriva desse modelo genérico. Na Secção 4, aplica-se uma decomposição de Dantzig-Wolfe a esse modelo, e são definidos o problema mestre e o subproblema. Na Secção 5, apresenta-se a estratégia usada no método de partição e geração de colunas. Na Secção 6, são mostrados resultados computacionais relativos a instâncias de teste com diferentes caracterı́sticas, e, finalmente, na Secção 7, são retiradas algumas conclusões sobre a aplicação desta abordagem a este novo problema. 2 Modelo de Fluxo de Três Índices para o VRP O VRP pode ser definido numa rede cujos elementos representam informação no espaço e no tempo ou simplesmente no espaço. Neste trabalho, recorremos a uma rede caracterizada por nodos que representam localidades a qualquer instante de tempo e por arcos que traduzem exclusivamente movimentos no espaço. Define-se o grafo G = ( V, A), em que V representa o conjunto dos nodos e A o conjunto dos arcos orientados. Seja N = {1, ..., n} o conjunto dos clientes onde existe um contentor susceptı́vel de ser recolhido. O depósito é representado pelos nodos o e d, que o distinguem enquanto primeira origem e destino final dos veı́culos. Um arco (i, j) não terá nunca por origem o nodo d ou por destino o nodo o. Os conjuntos V e A ficam completamente definidos por V = N ∪ { o, d} e A = {N ∪ { o} × N ∪ {d}}. A cada cliente i está associada uma quantidade pi de desperdı́cios de madeira disponı́veis para recolha. Assume-se que po = pd = 0. Entre cada par de nodos i e jexiste um tempo de trânsito tij no qual se inclui o tempo de serviço ao cliente i. Temos ainda que tij = tji , ∀i, j ∈ V , e tij ≤ tih + thj , ∀i, j, h ∈ V . Um arco (i, j), com i, j ∈ N , define uma sequência válida de recolhas nos clientes i e j. Os arcos (o, j) e (j, d) representam respectivamente o primeiro e último movimento de qualquer veı́culo, precedido ou seguido por uma recolha no cliente j. Quanto ao arco (o, d), na prática, ele corresponde a não sair do depósito. Uma rota consiste finalmente numa sequência de recolhas atribuı́das a um veı́culo da frota. Seja Ko conjunto desses veı́culos. Todos os veı́culos têm igual capacidade Q e tempo máximo de trânsito T. A cada arco (i, j) está associado um custo unitário cij , igual à menor distância, directa ou indirecta, entre os nodos i e j. De notar que cod = 0. Tal como para a matriz de tempos de trânsito, a matriz de distâncias é simétrica e verifica o princı́pio de desigualdade triangular. Os custos fixos relativo à utilização de veı́culos (necessariamente igual para todos eles), se existirem, são incluı́dos nos custos coj , j ∈ N , dado que cada veı́culo sai uma única vez do depósito. Esses custos são particularmente importantes nos casos em que se pretende minimizar o número de veı́culos usados. Sem perda de generalidade, assume-se que todos os parâmetros são inteiros não-negativos. O modelo de fluxo de três ı́ndices [10] que adoptaremos para o VRP, e a partir do qual formularemos um modelo para o PCVRPsr, deriva de uma formulação proposta em [6, 7, 8] para o VRP com janelas temporais (VRPTW), para o qual são impostos intervalos de tempo admissı́veis para as visitas. As variáveis Xijk , (i, j) ∈ A, k ∈ K, são variáveis de fluxo que tomam o valor 1 se o arco (i, j) pertencer à rota do veı́culo k e 0 caso contrário. As variáveis 24 C.M. Alves, J.V. Carvalho / Investigação Operacional, 24 (2004) 21-43 Lki e Tik , i ∈ V, k ∈ K, representam, após a passagem pelo nodo i, a carga do veı́culo k e a duração do seu trajecto desde que partiu do depósito, respectivamente. Os veı́culos saem vazios do depósito, i.e. Lko = 0, ∀k ∈ K. X min. k∈ K X (i,j ) cij Xijk (1) ∈ A sujeito a X X k∈ K j ∈ N ∪ X j ∈ N ∪ X i ∈ N ∪ X Xijk − {o} i ∈ N ∪ X i ∈ N ∪ Xijk (Tik Xijk = 1, ∀i∈N (2) k Xoj = 1, ∀k∈K (3) k Xji = 0, ∀ k ∈ K, ∀ j ∈ V \{o, d} (4) k Xid = 1, ∀k∈K (5) ∀ k ∈ K, ∀ (i, j) ∈ A (6) ∀ k ∈ K, ∀ i ∈ V (7) ∀ k ∈ K, ∀ (i, j) ∈ A (8) ∀ k ∈ K, ∀ i ∈ V (9) {d} {d} {d} {o} + tij − Tjk ) ≤ 0, 0 ≤ Tik ≤ T, Xijk (Lki + pi − Lkj ) ≤ 0, 0 ≤ Lki ≤ Q, Xijk ≥ 0, ∀ k ∈ K, ∀ (i, j) ∈ A. (10) Claramente, sempre que o problema (1)-(10) for possı́vel, existirá uma solução óptima inteira [7]. Contudo, essa formulação é não linear e define um espaço de soluções não convexo. A formulação (1)-(10) pode ser linearizada substituindo as restrições (6) e (8) pelas equações (11) e (12) e adicionando a condição de integralidade (13): Tik + tkij − Tjk ≤ (1 − Xijk )M , Lki + pi − Lkj ∀ k ∈ K, ∀ (i, j) ∈ A (11) Xijk )Q, ∀ k ∈ K, ∀ (i, j) ∈ A (12) Xijk binário, ∀ k ∈ K, ∀ (i, j) ∈ A. (13) ≤ (1 − M representa um valor suficientemente grande para que as restrições sejam redundantes para Xijk = 0. A função (1) representa o custo total das rotas. A restrição (2) garante a visita de todos os clientes por um único veı́culo. Um veı́culo k não utilizado corresponde a um veı́culo que sai do k = 1. O trajecto depósito-origem o e regressa directamente ao seu depósito-destino d, i.e. X od de um veı́culo k é descrito pelas restrições de conservação de fluxo (3)-(5). As restrições (6) e (7) garantem que a duração máxima de cada rota não seja excedida enquanto as restrições (8) e (9) garantem que a capacidade dos veı́culos não seja também excedida. Existem formas alternativas de definir as restrições de capacidade e duração que conduzem a formulações com um número bastante inferior de variáveis e restrições. Contudo, essa aparente ineficiência faz-se sem prejuı́zo do método de resolução adoptado e que apresentaremos mais adiante. C.M. Alves, J.V. Carvalho / Investigação Operacional, 24 (2004) 21-43 3 25 Modelo de Fluxo de Três Índices para o PCVRPsr O PCVRPsr consiste numa generalização do VRP com restrições adicionais relativas à recolha de uma quantidade mı́nima de desperdı́cios de madeira . O fabricante de aglomerados necessita de ns unidades de desperdı́cios de madeira. Por seu lado, os clientes não admitem guardar mais de nc unidades desse material. Acima das nc unidades, um cliente tem de ser visitado; abaixo, poderá ou não sê-lo, consoante as necessidades do fabricante. Seja N1 o conjunto de clientes do primeiro tipo (os clientes cheios) e N2 o conjunto de clientes do segundo tipo (os clientes semi-cheios). Essas condições, que designamos por restrições de serviço, distinguem o nosso problema do que seria um PCVRP clássico, no qual não é feita nenhuma distinção entre clientes. Se fizermos nc = min pi , obtém-se um VRP i∈N P clássico. Com nc = pi , o problema reduz-se a um PCVRP clássico. i∈N Se existirem clientes cheios, apenas uma parte das necessidades do fabricante terá de ser satisfeita Seja ns v essa quantidade. Temos que ns v = P através dos clientes semi-cheios. P ns − pi . Claramente, se ns ≤ pi , o problema reduz-se a um VRP clássico. i∈N1 i∈N1 Baseados no modelo (1)-(13), podemos formular o PCVRPsr da seguinte forma: X X min. cij Xijk k∈ K (i,j ) ∈ A (14) sujeito a X X X X k∈ K j ∈ N ∪ k∈ K j ∈ N ∪ X k∈ K X i∈N2 pi X Xijk = 1, ∀ i ∈ N1 (15) Xijk ≤ 1, ∀ i ∈ N2 (16) {d} {d} Xijk ≥ ns v (17) j∈N ∪{d} (3)-(5), (7) e (9)-(13) A restrição (2) desdobra-se agora nas restrições (15) e (16). A primeira impõe a visita de todos os clientes cheios enquanto a restrição (16) relaxa essa condição no caso dos clientes semi-cheios. Em (17) garante-se a recolha das ns v unidades através dos clientes semi-cheios. A dimensão do problema condiciona fortemente a sua resolução. Como referimos no final da Secção anterior, é possı́vel reduzir a dimensão do modelo reformulando as restrições de capacidade e duração através de uma única inequação por veı́culo, como é feito usualmente. Evitava-se assim o recurso às variáveis Tik e Lki . A economia é importante, mas a dimensão do problema continua considerável. A formulação proposta nesta Secção define |K|×((N +1) 2 −N ) variáveis de fluxo, |K| × N variáveis Tik e um igual número de variáveis de carga Lki . O maior número de restrições do modelo está concentrado em (11) e (12). Em cada conjunto, o número de restrições ascende a |K| × ((N + 1)2 − N ). 26 C.M. Alves, J.V. Carvalho / Investigação Operacional, 24 (2004) 21-43 12 7 1 hora 50 mins 1 3 1h 20 mins 1 h 10 mins 4 2 1h 10 mins 2 horas 30 mins 2 horas 5 3 1 h 30 mins 9 1 hora 30 mins 7 Figura 1: Solução válida para a instância do Exemplo 1. Exemplo 1 Considere uma instância do PCVRPsr com 10 clientes, 5 veı́culos, cujo grafo completo é parcialmente definido na Figura 1. As necessidades periódicas de recolha são de 50 toneladas. A capacidade dos veı́culos é de 30 toneladas e a duração das rotas é limitada a 1 dia. O nı́vel limite de stock é de 5 unidades. Qualquer cliente com um nı́vel de stock acima dessas 5 unidades é considerado cliente cheio, e tem consequentemente de ser visitado. Na Figura 1, o depósito, enquanto origem e destino final, é representado pelos quadrados a preto. Os clientes cheios são representados pelos cı́rculos. O valor perto dos sı́mbolos indica a carga respectiva de cada cliente. A figura apresenta uma solução válida para essa instância na qual dois veı́culos são usados para servir os clientes com 12,7,5,7 e 9 unidades de desperdı́cios. As 10 unidades em falta são recolhidas em três outros clientes. Para essa instância, a formulação desta Secção tem 655 variáveis e 1161 restrições. Com as simplificações sugeridas para as restrições de capacidade e duração, o número de variáveis passaria para 555, enquanto o número de restrições caı́ria para 75. É possı́vel derivar diversos casos especiais notáveis a partir do PCVRPsr. Se fixarmos o limite nc de stock tolerado no menor valor de stock possı́vel, relaxarmos as restrições de capacidade e duração e limitarmos o problema a um único veı́culo, obtém-se um problema de caixeiro viajante. O problema de empacotamento resulta da fixação de nc no seu valor mı́nimo, da relaxação da restrição de duração e das seguintes alterações dos custos: c kij = 1, k ∈ K, i = o(k), j ∈ N e ckij = 0 caso contrário. Ambos os problemas são NP-difı́ceis [11], o que faz do PCVRPsr um problema também NP-difı́cil. O problema que consiste em determinar se existe uma solução válida para determinada instância do PCVRPsr, quando o número de veı́culos é livre, é um problema de fácil resolução. Basta associar um veı́culo a cada cliente cheio e completar, eventualmente, as necessidades, C.M. Alves, J.V. Carvalho / Investigação Operacional, 24 (2004) 21-43 27 associando sequencialmente um veı́culo a cada cliente semi-cheio. No pior dos casos, este procedimento requer n operações. Se o número de veı́culos for fixo, o mesmo problema é NP-completo. Por essa razão, muitos dos algoritmos desenvolvidos no âmbito dos problemas de planeamento de rotas assumem que o número de veı́culos é livre. Esta conclusão, válida também para o VRPTW que é um caso especial do PCVRPsr, é um corolário do seguinte resultado obtido no caso de um único veı́culo sem limite de capacidade [14]: Teorema 3.1 O problema de decisão que consiste em saber se determinada instância do problema do caixeiro viajante com janelas temporais tem solução é NP-completo, mesmo quando os tempos de trânsito são simétricos. 4 Decomposição de Dantzig-Wolfe Aplicando o método de decomposição de Dantzig-Wolfe [5] ao modelo da Secção anterior, é possı́vel deixar as restrições de capacidade e duração das rotas para um subproblema de caminho mais curto com restrições adicionais, definindo-se um problema mestre de cobertura de conjuntos. 4.1 Problema Mestre Dada a formulação da Secção anterior para o PCRVPsr, a decomposição que propomos define o problema mestre a partir das restrições (10)-(17) com a respectiva função objectivo (14) inalterada e corresponde a um problema de partição de conjuntos com restrições adicionais. O subproblema é composto pelas restrições (3)-(5), (11), (7), (12) e (9)-(13) e consiste originalmente em |K| problemas idênticos de caminho mais curto sem ciclos com restrições de capacidade e duração, dos quais apenas um é efectivamente considerado. O poliedro definido pelas restrições do subproblema é limitado. Assim, as variáveis de fluxo Xijk podem ser expressas como uma combinação convexa e não negativa dos pontos extremos desse poliedro, que são caminhos no grafo G = ( V, A). Se Xijp representar o valor do fluxo no arco (i, j) de um ponto extremo p ∈ Ω do poliedro do subproblema (com Ω a representar o conjunto de todos os seus pontos extremos), teremos que: X Xijk = λkp Xijp , ∀k ∈ K, ∀(i, j) ∈ A p∈Ω com as seguintes restrições: X λkp = 1, ∀k ∈ K p∈Ω λkp ≥ 0 ∀k ∈ K, ∀p ∈ Ω É possı́vel associar a cada caminho p ∈ Ω um conjunto de informação. Assim, oPnúmero de vezes que um caminho pvisita um cliente i e que designaremos por aip é igual a Xijp . j ∈ N ∪ {d} P cij Xijp Numa solução válida, aip ∈ {0, 1}. O custo total cp de um caminho pé de (i,j ) ∈ A unidades. Quanto ao volume lp de desperdı́cios provenientes de clientes semi-cheios que são 28 C.M. Alves, J.V. Carvalho / Investigação Operacional, 24 (2004) 21-43 recolhidos ao longo de um percurso p, temos que lp = P pi P Xijp . Fazendo ainda i∈N2 j∈N ∪{d} P k λp , podemos rescrever o problema mestre da seguinte forma: λp = k∈K min. X λ p cp (18) p∈Ω sujeito a X λp aip = 1, ∀ i ∈ N1 (19) X λp aip ≤ 1, ∀ i ∈ N2 (20) p∈Ω p∈Ω X λp lp ≥ ns v, (21) p∈Ω λp binário, ∀p ∈ Ω (22) Da formulação de fluxos em arcos original passamos a uma formulação equivalente com fluxos em caminhos. Devido à estratégia de partição escolhida (Subsecção 5.1), adicionaram-se ao modelo duas variáveis Xc e Xd iguais respectivamente ao custo total da solução e ao número de veı́culos efectivamente usados. X λ p cp = X c (23) p∈Ω X λp = X d (24) p∈Ω\{{(o,d)}} Para reduzir problemas de estabilidade numérica associadas ao modelo de partição de conjuntos com restrições adicionais (18)-(24) que foram detectados na resolução de problemas com estrutura semelhante [6], e pelo facto do subproblema poder, como veremos na próxima Subsecção, gerar colunas com ciclos (aip ≥1), optou-se por um modelo de cobertura de conjuntos relaxando a restrição (19): X λp aip ≥ 1, ∀ i ∈ N1 (25) p∈Ω Mostra-se facilmente que o conjunto de soluções do problema de cobertura de conjuntos é idêntico ao do problema de partição de conjuntos, devido à propriedade de desigualdade triangular [1]. A Figura 2 ilustra a estrutura do problema mestre. O problema é inicializado com um número restrito de colunas e resolvido através do método de geração de colunas. Quando a procura dos clientes cheios é suficiente para cobrir as necessidades do fabricante, apenas são geradas rotas de ida e volta entre esses clientes e o depósito (os restantes clientes são obviamente excluı́dos do modelo). Caso contrário, adiciona-se uma rota por cada cliente semi-cheio na ordem crescente dos seus ı́ndices até que seja garantida a satisfação total das necessidades. A variável artificial Art foi incluı́da para garantir a validade dos problemas em qualquer nodo da árvore de pesquisa. O seu custo Mé muito elevado e os seus coeficientes nas restrições (25) e (20) igual à unidade. C.M. Alves, J.V. Carvalho / Investigação Operacional, 24 (2004) 21-43 Xc 0 0 0 0 0 0 0 0 -1 0 Clientes cheios Clt. semi-cheios Necessidades N.o de veı́culos Custo total Xd 0 0 0 0 0 0 0 -1 0 0 λ1 a11 ... A|N 1|1 a|N 1|+1,1 ... a|N 1|+|N 2|,1 l1 1 c1 c1 ... ... ... ... ... ... ... ... ... ... ... λ|Ω| a1|Ω| ... A|N 1||Ω| a|N 1|+1,|Ω| ... a|N 1|+|N 2|,|Ω| ln 1 cn cn 29 ≥ ≥ ≥ ≤ ≤ ≤ ≥ = = 1 1 1 1 1 1 ns v 0 0 Figura 2: Quadro Simplex do problema de cobertura de conjuntos com restrições adicionais. 4.2 Subproblema O Problema de Caminho Mais Curto Sem Ciclos e com Restrições de Capacidade e Duração (PCMCSCRCD) que resulta de uma simplificação da formulação (3)-(5), (11), (7), (12) e (9)(13), escolhida para o subproblema, e que não possui a propriedade da integralidade, é NPdifı́cil, e, em geral, de difı́cil resolução. Por esse motivo, recorremos a uma formulação relaxada do PCMCSCRCD na qual se elimina a condição de elementaridade imposta aos caminhos. O problema continua a ser um problema NP-difı́cil mas para o qual são conhecidos algoritmos pseudo-polinomiais. Na solução inteira óptima do problema mestre, onde o overcovering dos clientes nunca ocorrerá, as colunas associados aos caminhos com ciclos serão todas nulas. Pretende-se encontrar caminhos cujas colunas associadas no problema mestre tenham custo reduzido negativo. Designem-se por π i, π l ,π c e π d as variáveis duais do problema mestre restrito associadas às restrições (25) e (20) para cada cliente i∈N e às restrições (21), (23) e (24), respectivamente. O custo reduzido c0p de um caminho p ∈ Ω é dado por: X πi aip − πl lp − πc cp − πd c0p = cp − i∈N1 ∪N2 É possı́vel, por substituição dos parâmetros aip , lp e cp e alguns arranjos de termos, chegar à seguinte equação para o custo reduzido do caminho p expresso em ordem aos custos dos arcos de G: P P P P c0p = (cij − πi − πc cij )Xijp + (cij − πi − πc cij − πl pi )Xijp + i∈N1 j∈N ∪{d} i∈N2 j∈N ∪{d} P (coj − πc coj − πd )Xojp + (cod − πc cod − πd )Xodp + j∈N Os custos dos arcos do subproblema, os custos marginais, baseiam-se nos custos originais e são calculados da seguinte forma: c0ij c0ij c0ij c0ij = cij = cij = cij = cij − πi − πc cij − πi − πc cij − πl pi − πc cij − πd − πc cij − πd se se se se i ∈ N1 i ∈ N2 i = o e j∈ N i=oej=d 30 C.M. Alves, J.V. Carvalho / Investigação Operacional, 24 (2004) 21-43 O subproblema consiste assim numa relaxação do seguinte PCMCSCRCD: X min. c0ij Xij (i,j ) ∈ A (26) sujeito a X Xoj = 1, {d} j ∈ N ∪ X i ∈ N ∪ Xij − {o} (27) X i ∈ N ∪ X Xji = 0, ∀ j ∈ V \{o, d} (28) {d} Xid = 1, {o} Ti + tij − Tj ≤ (1 − Xij )M , (29) i ∈ N ∪ ∀ (i, j) ∈ A (30) ∀i∈V (31) ∀ (i, j) ∈ A (32) ∀i∈V (33) Xij ≥ 0, ∀ (i, j) ∈ A (34) Xij binário, ∀ (i, j) ∈ A. (35) 0 ≤ Ti ≤ T, Li + pi − Lj ≤ (1 − Xij )Q, pi ≤ Li ≤ Q, (36) O subproblema é resolvido através de um algoritmo de programação dinâmica de complexidade pseudo-polinomial, também usado em [6] para o problema muito semelhante de caminho mais curto com restrições de capacidade e janelas temporais. 5 Pesquisa de Soluções Inteiras: Método de Partição e Geração de Colunas O modelo do PCVRPsr não possui a propriedade da integralidade. A solução óptima inteira pode ser obtida através do método de partição e geração de colunas (branch-and-price) que consiste numa combinação do método de partição e avaliação sucessivas (branch-and-bound ) com o método de geração de colunas [4]. Em cada nodo da árvore de pesquisa, o limite inferior dado pela solução óptima da relaxação linear do PCVRPsr é calculada através do método de geração de colunas. 5.1 Estratégias de Partição Se as partições baseadas nas variáveis de decisão do problema mestre podem resultar na regeneração das colunas correspondentes, no caso do problema em estudo, e, de modo geral, no caso dos problemas de planeamento de rotas formulados nos termos da decomposição de DantzigWolfe, mostra-se que essa partição não é sequer praticável [2]. No lugar de uma partição nos caminhos, efectuou-se uma partição nas variáveis originais X ij que correspondem a fluxos em arcos. Cada ramo da árvore de pesquisa resulta da adição das restrições X ij =1 e Xij =0. C.M. Alves, J.V. Carvalho / Investigação Operacional, 24 (2004) 21-43 31 Como essas variáveis não fazem parte da formulação do problema mestre, é necessário derivar um procedimento equivalente na formulação de cobertura de conjuntos que apresentámos na Secção anterior. As modificações são executadas na matriz de custos do problema. Para garantir que o arco (i, j) não faz parte de nenhuma solução óptima (Xij =0), fixa-se um valor elevado ao respectivo custo cij e eliminam-se do problema mestre as colunas que correspondam a caminhos que passam por esse arco. Para garantir a presença do arco (i, j) na solução óptima do problema, penalizam-se todos os arcos que saem do nodo i e todos aqueles que terminam em j, excepto o arco (i, j), fixando em valores elevados os custos correspondentes. O custo das colunas que incluem esses arcos é actualizado ao mesmo tempo que o valor da função objectivo do problema mestre. Dessa forma, espera-se que uma rota seja forçada a visitar o cliente j imediatamente após o cliente i. Essa estratégia só faz sentido quando i e j são clientes cheios. Para esses casos, um fluxo fraccionário num caminho que atravessa os clientes i e j implica a existência de outros caminhos que os visitam com fluxos igualmente fraccionários e passando por arcos diferentes de (i, j) (se não existisse fluxo em quaisquer outros arcos incidentes em i e j, sem contar com o arco (i, j), o fluxo Xij seria igual a 1 e não chegaria a ser escolhido para a partição). Com as penalizações introduzidas, a solução óptima deixa efectivamente de o ser porque tem arcos com custos elevados. A cobertura dos clientes i e j só pode ser garantida pelo arco (i, j), o que obriga assim o seu fluxo a assumir o valor Xij =1. O mesmo acontece quando apenas um dos clientes é cliente cheio. Nos casos em que i e j são clientes semi-cheios, o esquema que apresentámos não garante por si só que o fluxo no arco (i, j) seja mesmo unitário. Possivelmente, poderá mesmo ser nulo se o cliente i não pertencer à solução óptima do novo problema (os custos de todos os arcos incidentes em jtêm valores elevados à excepção P do arco (i, j)). Lembramos que os clientes semi-cheios são sujeitos a restrições do tipo λp aip ≤ 1, podendo, na relaxação do p∈Ω problema inteiro, atravessá-los um fluxo total fraccionário. Se na solução óptima do problema de partida todos os arcos que saem de i e todos os arcos que terminam em jtiverem fluxo nulo, as transformações feitas na matriz de custos não terão qualquer efeito na solução óptima do novo problema. Os clientes i e jterão de passar a ser explicitamente considerados como clientes cheios, o que implica substituir as restrições correspondentes do tipo ”≤”por restrições de cobertura usuais do tipo ”≥”. Genericamente, esse procedimento foi adoptado sempre que a partição envolvia um cliente semi-cheio. Uma partição do tipo Xij =1 resulta numa agregação dos clientes i e j. A criação de um novo problema onde Xij =1 só pode ser feita se a soma das duas cargas não exceder a capacidade dos veı́culos e o tempo de trânsito entre eles também não for superior ao limite de duração imposto. Caso uma dessas restrições fosse violada e fosse, mesmo assim, criado o problema onde Xij =1, o problema resultaria numa solução de custo muito elevado, previsivelmente não atractiva. É necessário ainda tomar em consideração as agregações efectuadas a nı́veis superiores na árvore de pesquisa. Assim, se um cliente l, por exemplo, tiver já sido agregado ao cliente i, a partição Xij =1 só será possı́vel se a soma das cargas de i, j e l for inferior à capacidade dos veı́culos. O mesmo se aplica no caso das durações. Esses testes são inseridos na regra de selecção, inspirada em [6]. 32 C.M. Alves, J.V. Carvalho / Investigação Operacional, 24 (2004) 21-43 As partições baseiam-se ainda nas variáveis de custo total Xc e do número de veı́culos usados Xd , introduzidas especialmente para esse efeito na formulação do problema mestre. 5.2 Limite Inferior do Problema de Empacotamento para Detecção de Nodos Impossı́veis Em alguns nodos da árvore de pesquisa, a partição efectuada a partir de X d , na qual se impõe um limite superior ao número de veı́culos, pode conduzir a um problema inválido. A detecção oportuna dessa situação permite evitar operações de processamento inúteis. Para tal, bastaria comparar um limite inferior ao número de veı́culos necessários com o limite superior imposto pela partição. Esse limite inferior é dado pelo limite inferior para a solução do problema de empacotamento das cargas dos clientes cheios (ou que se vão tornando cheios em virtude da regra de partição) nos veı́culos de capacidade limitada, e pode ser calculado com base numa função dual válida apresentada em [9]. Considere, sem perda de generalidade, um problema de empacotamento normalizado, onde a capacidade dos contentores é unitária e as cargas distribuı́das entre 0 e 1. Uma função u :[0,1] → [0,1] é uma função dual válida se para qualquer conjunto S de números reais não negativos x se verificar: X X x≤1⇒ u(x) ≤ 1 x∈S x∈S É válida a seguinte proposição enunciada em Fekete e Schepers (1998): Proposição 5.1 Se I = (x1 , ..., xn ) for uma instância do problema de empacotamento e u uma função dual válida, então o limite inferior para a instância modificada do problema de empacotamento u(I) = (u(x1 ), ..., u(xn )) é também um limite inferior para I. O cálculo de um limite inferior para o problema de empacotamento definido a partir das cargas dos clientes cheios passa pelo cálculo de limites inferiores para o problema de empacotamento transformado através de uma função dual válida. Um limite inferior trivial para um problema de empacotamento I = (x1 , ..., xn ) normalizado é dado por: & n ' X xi L1 (I) = i=1 As funções duais válidas apresentadas por Fekete e Schepers (1998) são técnicas de arredondamento das cargas cujo objectivo consiste em aumentar o mais possı́vel o valor das cargas para assim obter limites inferiores de melhor qualidade. Consideramos apenas uma delas: u(k) :[0, 1] → [0, 1] x, x 7→ b(k + 1)xc k1 , se x(k + 1) ∈ Z caso contrário Calculam-se limites para diferentes valores de k ∈ Z. No final, o limite inferior para o número de veı́culos corresponderá ao maior desses valores. Outros limites inferiores para o problema de empacotamento podem ser encontrados em [13]. C.M. Alves, J.V. Carvalho / Investigação Operacional, 24 (2004) 21-43 33 Os limites inferiores são calculados antes que seja tomada uma decisão de partição baseada em Xd e sempre que tenha havido nova agregação de cargas. Os cálculos tomam evidentemente em conta essa agregação, o que implica a gestão de estruturas de dados adicionais que permitam o acesso a uma imagem corrigida do grafo do problema. Por exemplo, dois clientes que tenham sido agregados passam a contar por um único nodo com uma carga associada igual à soma das cargas dos clientes. É necessário registar essa informação em cada nodo da árvore de pesquisa por forma a garantir que futuras agregações sejam feitas tendo em atenção agregações previamente realizadas. Inicialmente, apenas se conhece um número restrito de clientes que irão ser visitados (os clientes cheios). O limite inferior para o número de veı́culos necessários só pode ser calculado com base nas suas cargas. Consequentemente, para baixos nı́veis de profundidade na árvore de pesquisa, não são de esperar limites de muito boa qualidade. Contudo, quanto maior for a profundidade, maior será o número de clientes semi-cheios que passam para o grupo dos clientes cheios, e melhor será o limite inferior. Por outro lado, se as restrições de capacidade dos veı́culos forem menos restritivas do que as restrições de duração das rotas, dificilmente o limite chegará a ser efectivo. O Exemplo 2 ilustra o cálculo deste limite inferior. Exemplo 2 Considere uma instância particular do PCVRPsr com 5 clientes e na qual o nı́vel limite de stock foi fixado no menor valor aceitável (VRP). A capacidade dos veı́culos é de 10 unidades de carga. Para ilustrar como se pode obter limites inferiores de melhor qualidade n P xi , em que xi é a carga normalizada do cliente do que o limite inferior trivial L1 = i=1 i, vamos usar a função dual válida com k =3. As cargas individuais de cada cliente são, respectivamente, iguais a 5, 5, 4, 3 e 3. O valor do limite inferior para o número de veı́culos calculado no primeiro nodo da árvore de pesquisa é de 2 veı́culos (o mesmo que L 1 ). O processo seguido para o seu cálculo foi sintetizado na tabela seguinte: Cliente i 1 2 3 4 5 pi 5 5 4 3 3 x i =pi/10 0.5 0.5 0.4 0.3 0.3 x i (k+1) 2 2 1.6 1.2 1.2 u (3) ( x i ) 0.5 0.5 1/3 1/3 1/3 2 De facto, é possı́vel empacotar os 2 itens com peso 5 num veı́culo e os itens com pesos 4, 3 e 3, repectivamente, noutro veı́culo. Essa solução pode não corresponder ao empacotamento que se verifica na solução óptima do PCVRPsr. Constitui, contudo, um limite inferior ao número de veı́culos necessários. Admite-se que a solução óptima da relaxação linear do problema mestre tem um número fraccionário de veı́culos compreendido entre 2 e 3 e que, no ramo onde foi inserida a restrição Xd ≤2, é escolhido o arco (2, 3) para a próxima partição. Para um dos problemas novos que deveria ser criado, aquele onde X23 =1, a configuração das cargas passaria a ser a que se representa na tabela seguinte: 34 C.M. Alves, J.V. Carvalho / Investigação Operacional, 24 (2004) 21-43 Cliente i 1 2e3 4 5 pi 5 9 3 3 O limite L1 continua a ser igual a 2. Recorrendo à função dual válida, o limite inferior que se obtém nesse caso passa a ser aproximadamente 2.17 veı́culos, conforme se ilustra no quadro seguinte: Cliente i 1 2e3 4 5 pi 5 9 3 3 x i =p i /10 0.5 0.9 0.3 0.3 x i (k+1) 2 3.6 1.2 1.2 u (3) ( x i ) 0.5 1 1/3 1/3 2.17 Claramente esse valor entra em conflito com os dois veı́culos máximos impostos pela anterior restrição de partição. Identificada essa situação, apenas o problema onde X 23 =0 é considerado. 6 Resultados Computacionais As instâncias de teste foram geradas aleatoriamente, segundo distribuições uniformes e intervalos de valores predefinidos. As instâncias geradas podem ser divididas em três grupos. Num primeiro grupo, a sombreado escuro na Tabela 1, estão as instâncias que representam problemas estritamente de prize collecting (PCVRP). Não possuem nenhum cliente cheio pelo que as visitas aos clientes visa apenas cobrir as necessidades periódicas. A sombreado claro na mesma tabela encontram-se as instâncias que possuem pelo menos um cliente semi-cheio (e pelo menos um cliente cheio), e cujas necessidades não são totalmente cobertas pelas cargas dos clientes cheios. Nessa situação, um conjunto de clientes semi-cheios terá mesmo de ser visitado. No último grupo, temos as instâncias cujas necessidades são cobertas pelas cargas dos clientes cheios. Essas instâncias definem VRPs de dimensão igual ou inferior a N . Apresentam-se apenas as instâncias com 15 e 25 clientes nas quais as capacidades dos veı́culos e o limite imposto à duração das rotas são factores efectivamente restritivos e para as quais foi possı́vel obter uma solução óptima em tempos razoáveis. Para instâncias de PCVRPsr com mais de 50 clientes, geradas segundo o mesmo processo aleatório, observa-se uma degradação considerável dos tempos de resolução. A duração máxima imposta às rotas, que define uma espécie de janela temporal dentro da qual se deve efectuar uma visita num cliente, é geralmente larga e dificulta a resolução do subproblema de programação dinâmica. A Tabela 1 resume as principais caracterı́sticas das 27 instâncias utilizadas. O primeiro problema mestre restrito é definido segundo uma adaptação da estratégia ”um cliente – um veı́culo”ao caso dos PCVRPsr. Ao fim de cada resolução do subproblema, são inseridas, se existirem, mais que uma coluna atractiva. O problema mestre é resolvido através C.M. Alves, J.V. Carvalho / Investigação Operacional, 24 (2004) 21-43 35 Tabela 1: Instâncias de Teste. N 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 15 15 15 15 15 15 15 15 15 15 15 15 15 15 15 15 15 25 25 25 25 25 25 25 25 25 25 Número de clientes semi-cheios 0 15 15 0 0 0 15 0 1 13 15 0 8 0 6 5 15 0 25 21 0 0 25 0 8 14 19 Carga dos clientes cheios 53 0 0 231 54 30 0 35 60 8 0 45 28 177 29 187 0 61 0 36 60 57 0 379 58 91 156 Carga dos clientes semi-cheios 0 139 53 0 0 0 54 0 2 33 216 0 24 0 12 45 248 0 391 105 0 0 499 0 16 94 286 Necessidades Necessidades Residuais 45 44 42 67 38 20 35 7 27 23 101 25 35 99 34 101 78 28 386 49 21 46 104 46 66 139 260 0 44 42 0 0 0 35 0 0 15 101 0 7 0 5 0 78 0 386 13 0 0 104 0 8 48 104 Capacidade dos veı́culos 9 23 9 41 8 2 8 5 8 7 41 8 8 34 6 38 44 5 45 14 4 4 47 32 7 17 41 do Simplex primal. O algoritmo de programação dinâmica não gera nenhum caminho que tenha ciclos de ordem inferior ou igual a dois. A estratégia de pesquisa usada foi do tipo ”primeiro em profundidade”. Nas tabelas de resultados adiante apresentadas, regista-se na primeira coluna o ı́ndice da instância, conforme a ordem definida na Tabela 1. A segunda coluna identifica a dimensão da instância, caracterizada pelo número de clientes. A terceira coluna representa o número de veı́culos efectivamente usados na solução óptima inteira. A quarta coluna regista o número de colunas geradas no processo de optimização da relaxação linear do problema mestre. As três colunas seguintes indicam os valores obtidos no método de partição e geração de colunas (número total de colunas geradas ao longo da árvore de pesquisa, número de nodos e profundidade máxima alcançada). Os tempos de execução são registados nas três colunas seguintes, distinguindo-se o tempo gasto na resolução do problema mestre da raı́z da árvore de pesquisa e o tempo gasto nos restantes nodos e indicando o tempo total. As duas últimas colunas indicam o valor da solução óptima fraccionária da relaxação linear do problema inteiro original e a sua solução óptima inteira. Os resultados foram obtidos num computador com processador Intel Pentium II, frequência de relógio de 450Mhz e 64 Mbytes de memória RAM, usando o CPLEX 6.0 [12]. 36 C.M. Alves, J.V. Carvalho / Investigação Operacional, 24 (2004) 21-43 Na Tabela 2, apresentam-se os resultados obtidos para as instâncias que possuem pelo menos um cliente cheio e um cliente semi-cheio, e cujas necessidades residuais são não nulas. A Tabela 3 apresenta uma sı́ntese idêntica de resultados para as instâncias da Tabela 1 que são VRPs clássicos. Para as instâncias representadas na Tabela 2, observa-se um tempo médio de resolução da relaxação linear da ordem dos 42% do tempo total usado na resolução do problema inteiro. Para as instâncias da Tabela 3, esse valor sobe para os 61.6%. Esta situação sugere a necessidade do recurso a heurı́sticas para a inicialização do problema mestre mais sofisticadas do que aquela que foi usada. A diferença entre as duas percentagens de tempo é ainda apoiada pela diferença sensı́vel que existe entre os intervalos de integralidade para os dois casos. Para as instâncias da Tabela 2, o intervalo médio de integralidade é de 5.4% (sendo o maior de 17,2% para a instância n.o 2), enquanto que para as instâncias listadas na Tabela 3 esse valor é de apenas 0.9% (o maior fica-se pelos 3,3% para a instância 8). A percentagem de tempo gasto no método de partição e geração de colunas, para o segundo caso, decresce em consequência da diminuição do intervalo de integralidade a pesquisar. Uma conclusão imediata consiste em reconhecer a perda de qualidade do limite inferior fornecido pelo modelo de cobertura com restrições adicionais quando aplicado a instâncias que representam PCVRPsr que tenham pelo menos um cliente semi-cheio a visitar. O aumento do intervalo médio de integralidade justifica em grande parte os 58% do tempo total de execução gastos no método de partição e geração de colunas na resolução das instâncias da Tabela 2. Quando as instâncias do PCVRPsr têm um rácio entre as necessidades residuais e a carga total dos clientes semi-cheios muito elevado (próximo dos 100%), o intervalo de integralidade tende a diminuir. A relação entre as cargas dos clientes semi-cheios e as necessidades residuais influenciou em alguns casos o desempenho do algoritmo. Constatou-se de facto que os tempos de resolução pioravam em algumas instâncias onde as proporções de clientes semi-cheios com cargas baixas e necessidades residuais elevadas eram importantes. A transformação das instâncias da Tabela 2 em instâncias de VRPs confirmam as conclusões que tirámos há pouco em relação ao aumento do intervalo médio de integralidade. Com essa transformação, o intervalo médio decresceu significativamente, passando dos 5.4% para os 1.2%. Na Tabela 4, listam-se os resultados obtidos para as instâncias de VRPs obtidas a partir das instâncias da Tabela 2. Comparando os tempos de resolução das instâncias do PCVRPsr (Tabela 2) com os tempos de resolução das suas correspondentes transformações em VRPs (Tabela 3), observa-se que, em 6 casos apenas, as instâncias do primeiro grupo levaram mais tempo a serem resolvidas. Em 5 desses casos, o intervalo de integralidade para as instâncias do PCVRPsr era maior do que aquele obtido para as instâncias do VRP. Contudo, outros casos há em que apesar do intervalo de integralidade ser maior, o tempo de resolução dos PCVRPsr é menor. É o caso, por exemplo, da instância n.o 2. Para os restantes 8 casos, os tempos de resolução das instâncias do PCVRPsr é menor. Novamente, verificamos que a maior parcela do esforço computacional, medida em função do tempo de processamento, é despendida em fases distintas da resolução. Para as instâncias do PCVRPsr o tempo continua a concentrar-se nas iterações do método de partição e geração de colunas, enquanto que para as instâncias do VRP o tempo é maioritariamente gasto na 15 15 15 15 15 15 15 15 25 25 25 25 25 25 2 6 5 4 3 5 6 2 22 5 3 11 9 7 cols RL 6 13 14 19 5 31 28 17 4 8 19 65 44 44 cols MPGC 2 30 29 11 0 2 9 0 0 0 1 0 25 31 nodos MPGC 25 125 199 2 8 150 89 67 0 5 47 43 29 312 prof. 11 19 22 1 5 20 18 18 0 3 14 16 10 24 tempo RL 51.41 1.71 0.33 0.72 0.06 0.11 0.43 86.4 0.04 0.11 0.71 6.21 0.28 5.16 tempo MPGC 5.72 2.80 5.60 0.49 0.22 2.63 1.54 70.36 0.00 0.22 2.04 1.10 0.82 17.25 tempo total 57.13 4.51 5.93 1.21 0.28 2.74 1.97 156.76 0.04 0.33 2.75 7.31 1.10 22.41 solução RL 659.60 4777.33 3107.50 2259.92 1834.81 3446.33 4472.17 1346.90 16900.00 3295.29 1098.70 8842.00 7352.00 5496.15 solução inteira 797.00 5194.00 3586.00 2266.00 1861.00 3606.00 4689.00 1487.00 16900.00 3353.00 1266.00 8888.00 7397.00 5562.00 C.M. Alves, J.V. Carvalho / Investigação Operacional, 24 (2004) 21-43 Veı́c. 37 Tabela 2: Resultados computacionais para as instâncias do PCVRPsr com necessidades residuais. 2 3 7 10 11 13 15 17 19 20 23 25 26 27 N 6 7 7 15 8 9 6 6 6 13 20 16 13 cols MPGC 8 0 0 0 0 0 0 7 0 2 0 4 12 nodos MPGC 2 0 12 0 11 2 2 40 2 83 2 74 57 prof. 1 0 7 0 5 1 1 16 1 15 1 12 14 tempo RL 32.35 0.11 0.61 0.05 0.06 0.06 16.70 3.57 34.27 0.11 0.06 0.05 24.55 tempo MPGC 1.98 0.00 0.38 0.00 0.16 0.05 0.05 3.36 17.52 2.31 0.05 1.76 4.94 tempo total 34.33 0.11 0.99 0.05 0.22 0.11 16.75 6.93 51.79 2.42 0.11 1.81 29.49 solução RL 6138.00 6801.00 6254.00 11870.0 5804.50 7202.50 6029.83 4551.00 4703.00 10697.00 17879.00 14606.00 10692.00 solução inteira 6139.00 6801.00 6352.00 11870.00 6005.00 7248.00 6107.00 4663.00 4763.00 10791.00 17911.00 14644.00 10752.00 C.M. Alves, J.V. Carvalho / Investigação Operacional, 24 (2004) 21-43 15 15 15 15 15 15 15 15 15 25 25 25 25 cols RL 56 30 46 0 28 23 58 64 23 73 20 54 83 38 Veı́c. Tabela 3: Resultados computacionais para as instâncias do PCVRPsr sem necessidades residu- ais(VRPs). 1 4 5 6 8 9 12 14 16 18 21 22 24 N C.M. Alves, J.V. Carvalho / Investigação Operacional, 24 (2004) 21-43 39 resolução da relaxação linear. De facto, em quase todos os casos, a resolução da relaxação linear foi mais rápida para as instâncias do PCVRPsr do que para as instâncias do VRP. A única excepção é a instância 5. O efeito do limite inferior do problema de empacotamento foi avaliado para os casos mais favoráveis do PCVRPsr que correspondem a instâncias do VRP. O que se observa para as restantes instâncias é uma degradação progressiva da eficácia em função do número de clientes semi-cheios. Nesses casos, o limite inferior só consegue actuar a partir de determinados nı́veis de profundidade, quando o conjunto de clientes cheios começa a ganhar maior preponderância. Os resultados que apresentamos nas Tabelas 5 e 6 correspondem à aplicação do nosso algoritmo às instâncias iniciais da Tabela 1 transformadas em instâncias do VRP. Parte da Tabela 5 foi já apresentada na Tabela 4. São nove as instâncias que viram o seu tempo total de resolução diminuir. Em média, se considerarmos todas as instâncias, a economia no tempo total de resolução é de 4.9% (para a instância 26 o tempo é reduzido em quase 50%; se retirarmos essa instância a média passa para 3.15%). Se tomarmos em consideração apenas as instâncias em que o limite inferior é útil, a economia sobe para os 14.8%. Esse valor é significativo, comprovando a vantagem da utilização de limites inferiores para o problema de empacotamento no problema de VRP. 7 Conclusões Neste artigo, explorámos um novo problema de planeamento de rotas, o Prize Collecting Vehicle Routing Problem with service restrictions (PCVRPsr). O problema aparece como uma generalização de um Vehicle Routing Problem (VRP) clássico, no qual se relaxa em parte a condição de visita obrigatória aos clientes. Distiguem-se assim dois grupos de clientes: os clientes cheios com nı́veis de desperdı́cios acima de determinado limite e os clientes semicheios com nı́veis abaixo desse limite. A visita aos clientes semi-cheios só é efectuada se as necessidades do fabricante não puderem ser satisfeitas com base nos desperdı́cios dos clientes cheios. Formulou-se um modelo matemático de fluxo de três ı́ndices, ao qual se aplicou a decomposição de Dantzig-Wolfe, que resultou num problema mestre de partição de conjuntos com restrições adicionais, relaxado posteriormente num modelo de cobertura de conjuntos, e num subproblema de caminho mais curto sem ciclos e com restrições de capacidade e duração, que acabamos por resolver relaxando a condição de elementaridade dos caminhos. Para a pesquisa de soluções inteiras, recorreu-se ao método de partição e geração de colunas. Calcularam-se também limites inferiores para o problema de empacotamento, baseados em funções duais válidas, para a detecção antecipada de nodos impossı́veis na árvore de pesquisa, o que resultou em economias de tempo apreciáveis no problema de VRP. Verificou-se um aumento sensı́vel do intervalo de integralidade fornecido pelo modelo de cobertura de conjuntos aplicado a instâncias do PCVRPsr com pelo menos um cliente semicheio a visitar. Para as instâncias do VRP, que são casos especiais do PCVRPsr, esse intervalo era sensivelmente menor. Futuras abordagens deverão procurar formulações mais fortes que resultem em intervalos de integralidade reduzidos. Quanto à relaxação linear inicial, os tempos de resolução foram em geral bem menores no caso do PCVRPsr mas poderiam ser certamente reduzidos recorrendo-se a heurı́sticas para obtenção do primeiro problema mestre restrito. 40 15 15 15 15 15 15 15 15 25 25 25 25 25 25 7 6 7 6 11 8 7 6 22 21 11 11 13 12 cols RL 46 50 39 59 10 40 30 52 6 11 78 125 67 92 cols MPGC 11 3 0 4 0 4 0 23 0 0 97 14 25 36 nodos MPGC 61 2 0 70 5 11 10 31 0 0 139 34 318 73 prof. 17 1 0 13 3 6 6 12 0 0 16 10 21 15 tempo RL 63.27 4.73 0.77 1.20 0.06 0.11 0.22 198.94 0.05 0.12 1.76 10.82 0.28 6.70 tempo MPGC 16.64 1.37 0.00 1.93 0.05 0.49 0.33 14.94 0.00 0.00 9.23 4.89 17.41 5.72 tempo total 79.91 6.10 0.77 3.13 0.11 0.60 0.55 213.88 0.05 0.12 10.99 15.71 17.69 12.42 solução RL 4478.50 5613.00 5893.00 5276.67 9584.50 5569.50 5766.67 5889.00 18088.00 17821.00 9629.50 9659.50 11194.00 10713.20 solução inteira 4751.00 5661.00 5893.00 5401.00 9782.00 5574.00 5819.00 5973.00 18088.00 17821.00 9890.00 9680.00 11289.00 10755.00 C.M. Alves, J.V. Carvalho / Investigação Operacional, 24 (2004) 21-43 Veı́c. Tabela 4: Resultados computacionais para as instâncias do PCVRPsr transformadas em VRPs. 2 3 7 10 11 13 15 17 19 20 23 25 26 27 N 6 7 6 7 7 15 7 8 10 6 11 6 8 6 7 7 6 13 22 21 20 16 11 13 11 13 12 Cols MPGC 8 11 3 0 0 0 0 0 0 4 0 0 4 7 0 0 23 2 0 0 0 4 97 12 14 25 36 Nodos MPGC 2 61 2 0 12 0 0 11 7 70 5 2 11 40 10 2 31 83 0 0 2 74 139 57 34 318 73 prof. 1 17 1 0 7 0 0 5 4 13 3 1 6 16 6 1 12 15 0 0 1 12 16 14 10 21 15 tempo RL 32.35 63.27 4.73 0.11 0.61 0.05 0.77 0.06 0.06 1.20 0.06 16.70 0.11 3.57 0.22 78.93 198.94 0.11 0.05 0.12 0.06 0.05 1.76 24.55 10.82 0.27 6.70 tempo MPGC 1.98 16.64 1.37 0.00 0.38 0.00 0.00 0.16 0.11 1.93 0.05 0.05 0.49 3.36 0.33 0.00 14.94 2.31 0.00 0.00 0.05 1.76 9.23 4.94 4.89 17.41 5.72 tempo total 34.33 79.91 6.10 0.11 0.99 0.05 0.77 0.22 0.17 3.13 0.11 16.75 0.60 6.93 0.55 78.93 213.88 2.42 0.05 0.12 0.11 1.81 10.99 29.49 15.71 17.68 12.42 solução RL 6138.00 4478.50 5613.00 6801.00 6254.00 11870.00 5893.00 5804.50 7654.83 5276.67 9584.50 6029.83 5569.50 4551.00 5766.67 5924.50 5889.00 10697.00 18088.00 17821.00 17879.00 14606.00 9629.50 10692.00 9659.50 11194.00 10713.20 solução inteira 6139.00 4751.00 5661.00 6801.00 6352.00 11870.00 5893.00 6005.00 7695.00 5401.00 9782.00 6107.00 5574.00 4663.00 5819.00 5960.00 5973.00 10791.00 18088.00 17821.00 17911.00 14644.00 9890.00 10752.00 9680.00 11289.00 10755.00 C.M. Alves, J.V. Carvalho / Investigação Operacional, 24 (2004) 21-43 15 15 15 15 15 15 15 15 15 15 15 15 15 15 15 15 15 25 25 25 25 25 25 25 25 25 25 cols RL 56 46 50 30 46 0 39 28 31 59 10 58 40 64 30 58 52 73 6 11 20 54 78 83 125 67 92 para as instâncias da Tabela 1 transformadas em instâncias do VRP. Veı́c. 41 Tabela 5: Resultados computacionais (sem recurso ao limite inferior do problema de empacotamento) 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 N nodos MPGC 2 61 2 0 12 0 0 10 7 70 5 1 10 35 9 1 31 82 0 0 2 74 139 56 34 313 73 prof. 1 17 1 0 7 0 0 5 4 13 3 1 6 16 6 1 12 15 0 0 1 12 16 14 10 21 15 Tempo RL 32.35 63.27 4.73 0.11 0.61 0.05 0.77 0.05 0.06 1.20 0.06 16.70 0.11 3.62 0.22 78.82 198.94 0.11 0.05 0.06 0.06 0.05 1.76 24.77 10.77 0.28 6.7 tempo MPGC 1.98 16.64 1.37 0.00 0.38 0.00 0.00 0.17 0.11 1.93 0.05 0.00 0.39 3.16 0.33 0.00 14.94 2.20 0.00 0.00 0.05 1.76 9.23 2.53 4.83 8.40 5.72 tempo total 34.33 79.91 6.10 0.11 0.99 0.05 0.77 0.22 0.17 3.13 0.11 16.70 0.50 6.78 0.55 78.82 213.88 2.31 0.05 0.06 0.11 1.81 10.99 27.3 15.6 8.68 12.42 solução RL 6138.00 4478.50 5613.00 6801.00 6254.00 11870.00 5893.00 5804.50 7654.83 5276.67 9584.50 6029.83 5569.50 4551.00 5766.67 5924.50 5889.00 10697.00 18088.00 17821.00 17879.00 14606.00 9629.50 10692.00 9659.50 11194.00 10713.20 solução inteira 6139.00 4751.00 5661.00 6801.00 6352.00 11870.00 5893.00 6005.00 7695.00 5401.00 9782.00 6107.00 5574.00 4663.00 5819.00 5960.00 5973.00 10791.00 18088.00 17821.00 17911.00 14644.00 9890.00 10752.00 9680.00 11289.00 10755.00 C.M. Alves, J.V. Carvalho / Investigação Operacional, 24 (2004) 21-43 6 7 6 7 7 15 7 8 10 6 11 6 8 6 7 7 6 13 22 21 20 16 11 13 11 13 12 cols MPGC 8 11 3 0 0 0 0 0 0 4 0 0 1 9 0 0 23 0 0 0 0 4 97 16 14 14 36 42 15 15 15 15 15 15 15 15 15 15 15 15 15 15 15 15 15 25 25 25 25 25 25 25 25 25 25 cols RL 56 46 50 30 46 0 39 28 31 59 10 58 40 64 30 58 52 73 6 11 20 54 78 83 125 67 92 para as instâncias da Tabela 1 transformadas em instâncias do VRP. Veı́c. Tabela 6: Resultados computacionais (com recurso ao limite inferior do problema de empacotamento) 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 N C.M. Alves, J.V. Carvalho / Investigação Operacional, 24 (2004) 21-43 43 Agradecimentos Gostarı́amos de agradecer ao revisor as sugestões e comentários que ajudaram a tornar mais claro este artigo. 8 Referências [1] Alves, C.M., Planeamento de rotas de veı́culos em sistemas de recolha/distribuição, Dissertação de Mestrado em Engenharia Industrial, Especialidade de Logı́stica e Distribuição, Universidade do Minho, 126 pp., Dezembro de 2000. [2] Ahuja, R., T. Magnanti e J. Orlin, Network Flows: Theory, Algorithms and Applications, Prentice-Hall (1993). [3] Balas, E., The Prize Collecting Traveling Salesman Problem, Networks 19 (1989), pp. 621-636. [4] Barnhart, C., E. Johnson, G. Nemhauser, M. Savelsbergh e P. Vance, Branch-and-price: Column Generation for Solving Huge Integer Programs, Operations Research 46 (1998), pp.316-329. [5] Dantzig G. B. e P. Wolfe, Decomposition Principle for Linear Programs, Operations Research 8 (1960), pp. 101-111 [6] Desrochers, M., J. Desrosiers e M. Solomon, A New Optimization Algorithm for the Vehicle Routing Problem with Time Windows, Operations Research 40 (1992), pp. 342-354. [7] Desrosiers, J., F. Soumis e M. Desrochers, Routing with Time Windows by Column Generation, Networks 14 (1984), pp. 545-565 [8] Desrosiers J., Y. Dumas, M. Solomon e F. Soumis, Time Constrained Routing and Scheduling, Handbooks in OR & MS 6 (1995), pp. 35-139. [9] Fekete, S. e J. Schepers, New Classes of Lower Bounds for Bin-Packing Problems, Lecture Notes in Computer Science 1412 (1998). [10] Fisher, M.L. e R. Jaikumar, A Generalized Assignment Heuristic for Vehicle Routing, Networks 11, (1981), pp. 109-124. [11] Garey, M. e D. Johnson, Computers Intractability, W.H. Freeman and Company (1979), San Francisco, USA. [12] Ilog, Inc., Using the CPLEX Callable Library, Version 6.0 (1998). [13] Martello, S. e P. Toth, Knapsack Problems: Algorithms and Computer Implementations, John Wiley and Sons (1990). [14] Savelsbergh, M., Local Search in Routing Problems with Time Windows. Annals of Operations Research 4 (1985), pp. 285-305. A. Moura, J.F. Oliveira / Investigação Operacional, 24 (2004) 45-62 45 Uma Heurı́stica Composta para a Determinação de Rotas para Veı́culos em Problemas com Janelas Temporais e Entregas e Recolhas Ana Moura ∗ ∗ ‡ José F. Oliveira † ‡ ESTiG - Escola Superior de Tecnologia e Gestão, Instituto Politécnico de Bragança [email protected] † ‡ FEUP - Faculdade de Engenharia da Universidade do Porto [email protected] INESC Porto – Instituto de Engenharia de Sistemas e Computadores do Porto Abstract In this paper a new heuristic for the vehicle routing problem is presented. This algorithm was applied to a problem originated from a Portuguese alimentary products distribution company. This company has many clients and more then 130 deliveries per day for all products. When considering these figures, the vehicle routing problem becomes too much complex to be manually solved. The necessity of automatization naturally arises. This new multi-phase heuristic has a constructive phase, a local optimisation phase and a pos-optimisation phase, and aims the minimization of the sum of the routes total time. Additional constraints to the vehicle routing problem, driven by the particular company that motivated this work, are considered. In particular time-windows both for the drivers and for the clients and pick-up together with deliveries are considered. Resumo Neste artigo apresenta-se uma nova heurı́stica para a determinação de rotas para veı́culos, aplicada a uma empresa portuguesa de distribuição de produtos alimentares. Esta empresa é detentora de uma grande carteira de clientes, realizando perto de cento e trinta entregas diárias de vários tipos de produtos. A necessidade da automatização do processo de determinação das rotas dos veı́culos surge naturalmente neste contexto. Esta nova heurı́stica composta tem uma fase construtiva, uma fase de optimização local e uma fase de pós-optimização, sendo o objectivo a minimização do tempo total dos percursos. São ainda incorporadas restrições adicionais derivadas da aplicação concreta que motivou o presente trabalho. Em particular são consideradas janelas temporais, quer para os condutores/veı́culos quer para os clientes, e recolhas de vasilhame em simultâneo com as entregas de mercadorias. c 2004 Associação Portuguesa de Investigação Operacional 46 A. Moura, J.F. Oliveira / Investigação Operacional, 24 (2004) 45-62 Keywords: Vehicle routing problem, Time-windows, Pick-up and delivery, Multiple travelling salesman problem, heuristics Title: A multi-phase heuristic for the delivery pick-up vehicle-routing problem with time-windows 1 Introdução O problema de distribuição apresentado pela empresa, e que esteve na base do desenvolvimento deste algoritmo, pode ser formulado como um problema de planeamento de rotas para veı́culos com janelas temporais (VRPTW). Este problema é uma generalização do problema de rotas para veı́culo (VRP) e consiste na determinação de n rotas para n veı́culos, onde uma rota é definida como um percurso que tem inı́cio num armazém, visita por uma determinada ordem um sub-conjunto de clientes, cada um dentro de um intervalo de tempo especı́fico (janelas temporais), retornando finalmente ao mesmo armazém. Existem ainda várias restrições adicionais, tanto da parte dos clientes como da parte da empresa e dos veı́culos, que tornam este problema mais complexo. Existem diversos artigos publicados nesta área, e variadas formas de obter soluções muito perto do óptimo, no entanto poucos consideram simultaneamente o leque alargado de restrições com que neste problema especı́fico se lida. Referências relevantes são os trabalhos de Laporte, onde se apresenta algoritmos exactos e aproximados para o VRP [6], e onde se faz um resumo das várias heurı́sticas para o VRP, divididas em heurı́sticas clássicas e heurı́sticas modernas [7]. Uma abordagem clássica à resolução do VRP passa pela sua modelização como um problema de caixeiro viajante múltiplo (m-TSP), onde cada um dos veı́culos é um caixeiro viajante que tem de visitar um determinado número de clientes com diferentes localizações geográficas, diferentes pedidos de entrega e recolha e ainda diferentes janelas temporais. Na literatura encontram-se vários métodos de abordagem para estes problemas. Por exemplo, Laporte [8] apresenta alguns dos algoritmos exactos e aproximados até então desenvolvidos para aplicação ao TSP, considerando TSP simétricos e que satisfazem a desigualdade triangular. Outros autores ([1],[9] e [10]) apresentam heurı́sticas de melhoramentos aplicadas a uma solução inicial admissı́vel. Estas heurı́sticas baseadas nos princı́pios do r-OPT e Or-OPT (procedimentos de melhoria aplicados a soluções já existentes) melhoram a solução inicial através de movimentos de trocas ou inserções em rotas ou entre rotas. Helsgaun [4] descreve uma implementação da heurı́stica Lin-Kernighan, defendendo que é um dos métodos com mais sucesso para o TSP simétrico. Quando se consideram entregas e recolhas, Gendreau et al [3] descreve uma nova heurı́stica para o problema do caixeiro viajante com entregas e recolhas (TSPPD), baseada em pesquisa tabu. No domı́nio das heurı́sticas de construção de percursos, Johnson e McGeoch [5] obtiveram resultados teóricos bastante interessantes. Relativamente às heurı́sticas de pesquisa local 2-Opt e 3-Opt, os mesmos autores analisam o seu comportamento, apresentando uma descrição e resultados computacionais. A consideração conjunta de janelas temporais e entregas e recolhas é feita em [2]. Contudo, neste caso, e ao contrário do problema abordado neste artigo, as entregas são feitas numa primeira metade do percurso e as recolhas na segunda. 47 Pósconstrução Construção Optimização (rotas individuais) Fase 2 Fase 1 A. Moura, J.F. Oliveira / Investigação Operacional, 24 (2004) 45-62 Optimização (várias rotas) Figura 1: Fases da Heurı́stica Composta No que diz respeito à organização do presente artigo, na secção 2 é descrito o problema de uma forma sucinta, passando-se de seguida à sua modelização e formulação matemática (secção 3). Posteriormente é descrita a heurı́stica composta desenvolvida (secção 4). Esta heurı́stica está dividida em duas fases (Figura 1). A primeira fase corresponde à construção das rotas e divide-se em duas subfases, uma construtiva propriamente dita e outra de pós-construção. A segunda fase corresponde a uma heurı́stica de melhoramento, que por sua vez também se encontra dividida em duas subfases, uma de optimização local, executada em cada uma das rotas individualmente, e outra com trocas entre as várias rotas, incluindo uma componente aleatória. Por fim (secção 5 e 6), são apresentados resultados computacionais obtidos pela heurı́stica composta quando aplicada a vários exemplos e retiradas algumas conclusões. 2 Descrição do Problema A empresa faz a distribuição de produtos alimentares, tendo a recepção e expedição de mercadorias centralizada em duas plataformas, uma no Porto e outra em Lisboa. A sua distribuição é efectuada por veı́culos subcontratados, de acordo com as suas necessidades diárias e de forma a satisfazer as encomendas. O planeamento das rotas dos veı́culos está obrigatoriamente dependente das encomendas existentes, que naturalmente condicionam o número de veı́culos necessários para a distribuição diária e os percursos correspondentes. Estes veı́culos são escolhidos de acordo com quatro factores: os tipos de produtos a entregar, as localizações dos clientes relativamente aos tipos de acessos, as capacidades máximas e as dimensões fı́sicas de cada veı́culo. Existem três tipos de veı́culos para o transporte que variam em tamanho e caracterı́sticas. O mais pequeno tem uma capacidade de 10 Toneladas (transporta os produtos em contentores de pequena dimensão), o seguinte de 15 Toneladas (com sistema de frio e que transporta os produtos em paletes) e o de maior dimensão de 19 Toneladas (onde a carga de uma maneira 48 A. Moura, J.F. Oliveira / Investigação Operacional, 24 (2004) 45-62 geral é transportada a granel). No que diz respeito aos tipos de produtos distribuı́dos pela empresa em questão, podemos dizer que estão divididos em cinco categorias: congelados, frescos, mercearias (não alimentares e alimentares), bebidas e batatas. O tipo de produto restringe à partida os tipos de veı́culos que podem ser utilizados para um dado transporte. Conjugando o tipo de produtos a entregar com a localização geográfica do cliente, que define a sua acessibilidade por cada tipo de veı́culo, fica univocamente definido o tipo de veı́culo a usar para fazer as entregas a esse cliente, uma vez que é polı́tica da empresa utilizar sempre para cada cliente o tipo de veı́culo admissı́vel com maior capacidade (i.e. sendo possı́vel usar um veı́culo de 15 Toneladas ou um de 19 Toneladas, opta-se pelo veı́culo de 19 Toneladas). Desta forma os clientes ficam divididos em escalões, correspondendo cada escalão a um tipo de veı́culo. Uma vez que às diferentes áreas geográficas correspondem diferentes velocidades médias dos veı́culos, torna-se necessário trabalhar com tempos de deslocação em vez de distâncias. Consequentemente, a cada cliente é atribuı́da uma velocidade de acesso que corresponde à velocidade média com que os veı́culos se deslocam na respectiva área geográfica. Esta caracterı́stica faz com que neste problema não se verifique a desigualdade triangular. Restrições existentes para a definição das rotas: Existem várias restrições que têm que ser consideradas na elaboração das rotas: 1. Capacidade da frota, tendo em consideração que existem entregas de encomendas e recolhas de vasilhames nos clientes; 2. Dimensão e tonelagem dos veı́culos, que condicionam a acessibilidade dos mesmos; 3. Janelas temporais relativas aos horários dos motoristas, sendo estas janelas duplas por efeito da hora para almoço; 4. Janelas temporais relativas aos clientes, para a recepção das encomendas; 5. Velocidades médias diferentes, para os veı́culos, conforme a zona geográfica. 3 Modelização e Formulação Matemática do Problema Conforme foi descrito anteriormente, o problema que se pretende modelizar considerará os vários pedidos de entrega de um determinado tipo de produto, para vários clientes de diferentes (ou da mesma) área geográfica. Assim ter-se-á uma lista de clientes para serem visitados uma e uma só vez, cada um por um único veı́culo. Garantindo que todos os pedidos desses clientes não excedem a capacidade de um determinado veı́culo, deve-se escolher uma sequência para visitar esses clientes, fazendo as entregas e recolhas necessárias, retornando ao ponto de origem (armazém) e percorrendo o caminho total no menor tempo possı́vel. São também conhecidas as distâncias geométricas entre o armazém e cada um dos clientes e entre os vários clientes, sabendo-se assim todos os tempos de percurso entre o armazém e clientes e entre cada par de clientes. O problema é formulado sobre um grafo G(N, T ), sendo N o conjunto dos clientes mais o armazém e T as ligações entre os vários clientes e entre estes e o armazém. Estas arestas são caracterizadas pelos tempos de deslocação. A. Moura, J.F. Oliveira / Investigação Operacional, 24 (2004) 45-62 49 Será considerado um conjunto de veı́culos diferentes V = {1, 2, ..., v}, um conjunto de clientes de um dado escalão C = {1, 2, ..., c} e o armazém A. O armazém é representado por dois nós A = {0, n + 1}. Nenhum arco termina no nó 0 e nenhum arco tem origem no nó n + 1. Todos os percursos terão inı́cio no nó 0 e terminam no nó n + 1. O conjunto de todos os nós N = {0, 1, 2, ..., c, n + 1}, corresponde à união dos conjuntos clientes C e armazém A. A cada arco do grafo (i, j) , i 6= j, é associada uma distância dij , que corresponde à distância entre clientes, e um tempo de percurso tijv , que corresponde ao tempo que um determinado veı́culo v leva a deslocar-se entre os clientes e entre clientes e armazém. Existe ainda um tempo de serviço tsiv que corresponde ao tempo que o veı́culo v demora a fazer a entrega no cliente i, e um tempo de deslocação tdijv que corresponde à soma do tempo de percurso entre dois clientes (ou entre o último cliente da rota e o armazém) com o tempo de serviço no cliente i, tudo relativamente ao veı́culo v. O tempo de deslocação e o tempo de percurso são obtidos através das seguintes expressões seguintes: • Entre vários clientes, clientes e armazém e armazém e clientes, o tempo de deslocação, é dado por: tdijv = tsiv + tijv [minutos] i, j ∈ N, v ∈ V • O tempo de percurso tijv , é calculado pela seguinte expressão: tijv = dij ∗60 V elM edv [minutos] i, j ∈ N, v ∈ V onde V elM ed é a velocidade de deslocação do veı́culo em km/h, para a área geográfica dos clientes. Nos casos em que os clientes i e j se encontram em áreas geográficas diferentes, a velocidade de deslocação do veı́culo entre eles é a média das velocidades de deslocação nas duas zonas geográficas. No caso de i = 0 (partindo do armazém) toma-se ts0v = 0. Cada veı́culo tem uma determinada capacidade qv (com v ∈ V ), que não pode ser excedida, e a cada cliente corresponde um determinado pedido pi (com i ∈ C). Cada veı́culo tem ainda associada uma janela temporal [0, kv ] , v ∈ V , sendo Kv as horas de trabalho dos motoristas. Para cada cliente, o inı́cio da entrega deve estar dentro de uma janela temporal, [a i , bi ] , i ∈ C. Um veı́culo pode chegar a um cliente antes do inı́cio da sua janela temporal e esperar até que seja possı́vel efectuar as entregas, mas não pode chegar depois do fim da janela temporal. Como estamos perante um caso de entregas e recolhas, é necessário ter em atenção quando um determinado cliente tem vasilhame para ser recolhido. Assim, ri com i ∈ C é o vasilhame a ser recolhido num cliente. Assume-se que todos os dados, qv , ri , pi , dij , tijv , tsiv ai , bi , têm valores positivos. Finalmente assume-se também que este modelo não satisfaz a desigualdade triangular, i.e., ∃h,i,j∈N ∃v∈V : dij > dih + dhj ∨ tijv > tihv + thjv . Como variáveis de decisão, ter-se-á: 1. As variáveis xijv , definidas ∀i, j ∈ N, ∀v ∈ V com i 6= j, i 6= n + 1, j 6= 0, que tomam o valor 1 se o veı́culo v se deslocar do nó i para o nó j, e o valor 0 se não se deslocar. 50 A. Moura, J.F. Oliveira / Investigação Operacional, 24 (2004) 45-62 2. As variáveis siv , definidas ∀i ∈ N, ∀v ∈ V , que nos indicam o instante de tempo em que um veı́culo v, v ∈ V , inicia o serviço no cliente i, i ∈ C. Assume-se que s0v = 0, ∀v ∈ V , e sn+1,v que nos indica o tempo de chegada do veı́culo v ao armazém. Para um determinado número de veı́culos, o objectivo é definir rotas cujo tempo total de percurso seja mı́nimo. Matematicamente podemos modelizar este problema da seguinte forma: min X sn+1,v (1) xijv = 1 ∀i ∈ C (2) v∈V X X v∈V j∈N X xijv ≤ |S| − 1 S ⊂ C, 2 ≤ |S| ≤ n + 2 ∀v ∈ V (3) i.j∈S X i∈C max (pi , ri ) × X X j∈N xijv ≤ qv ∀v ∈ V x0jv = 1 ∀v ∈ V (4) (5) j∈N X i∈N xihv − X xhjv = 0 ∀i ∈ C, ∀v ∈ V (6) j∈N X xi,n+1,v = 1 ∀v ∈ V (7) i∈N siv + tdijv − M (1 − xijv ) ≤ sjv , ∀i ∈ N, ∀j ∈ N, ∀v ∈ V, M → +∞ ai ≤ siv ≤ bi ∀i ∈ N, ∀v ∈ V sn+1,v ≤ kv xijv ∈ {0, 1} (8) (9) ∀v ∈ V (10) ∀i ∈ N, ∀j ∈ N, ∀v ∈ V (11) siv ≥ 0 ∀i ∈ N, ∀v ∈ V (12) A restrição (2) garante que a cada cliente é atribuı́do um e um só veı́culo e que de cada cliente só se sai para um outro cliente ou para o armazém. A restrição (3), impede a formação de ciclos. Note-se que a separação do armazém num nó origem 0 e num nó destino n+1, leva a que não sejam admissı́veis ciclos de qualquer comprimento. A restrição (4) é relativa à capacidade do veı́culo, garantindo que nenhum veı́culo visita mais clientes do que os permitidos pela sua capacidade. Esta restrição não só tem em consideração os pedidos dos clientes, como também considera os vasilhames existentes nos clientes e que é necessário recolher. As restrições (5, 6 e 7), são restrições de fluxo que garantem que cada veı́culo parte do nó 0, só sai de um nó h se lá tiver entrado previamente e que termina o percurso no nó n+1. A restrição (8) garante-nos que se a ligação de i para j for escolhida para o veı́culo v (xijv = 1) então não se inicia o serviço em j antes de lá se chegar. Se xijv = 0 a restrição fica não activa. A restrição (9) garante-nos que todas as janelas temporais são respeitadas. A restrição (10) impõe uma duração máxima para a rota de cada veı́culo, kv , motivada pelo horário de trabalho dos motoristas. Este modelo tem como base o modelo do problema do caixeiro viajante (TSP), embora com várias restrições adicionais. Por outro lado, a consideração de vários veı́culos em simultâneo A. Moura, J.F. Oliveira / Investigação Operacional, 24 (2004) 45-62 51 leva à consideração de m caixeiros (correspondendo a cada um dos veı́culos), que se localizam numa determinada cidade (o Armazém) – esta assunção é importante por causa das janelas temporais – e têm de visitar um determinado conjunto de cidades C (que corresponde aos clientes). Partindo do armazém, o objectivo é visitar todas as cidades e retornar à cidade de origem, percorrendo o menor caminho possı́vel, aqui medido em termos de tempos de percurso. 4 Heurı́stica Composta para a Determinação de Rotas para Veı́culos Foi desenvolvida uma heurı́stica composta com duas fases. A primeira fase consiste numa heurı́stica construtiva. Este algoritmo baseia-se no algoritmo do vizinho mais próximo, sendo a noção de proximidade dada pela ordenação dos clientes na lista de candidatos. Vários critérios de ordenação foram implementados e testados. Por sua vez este algoritmo construtivo está dividido em duas subfases. A primeira subfase (Tabela 2) constrói rotas completas para cada escalão, considerando todas as restrições adicionais mencionadas na secção 2. Para cada um dos escalões, o inı́cio da determinação de uma rota toma em consideração as ligações do armazém a todos os clientes do escalão. Encontrando o primeiro cliente que satisfaça todas as restrições insere-o em primeiro lugar no conjunto C ∗ (conjunto correspondente a uma rota) e retira-o do conjuntoC. Em seguida, para os clientes seguintes candidatos à rota, considera sempre as ligações do último cliente (Ln ) inserido em C ∗ com todos os outros do conjuntoC. Estas listas de ligações correspondem aos tempos de ligação entre cada um dos clientes com todos os outros, incluindo o armazém. Sempre que se insere um cliente na rota são verificadas as restrições de capacidade e das janelas temporais, além de se verificar também as condições de paragem do algoritmo, nomeadamente: o tempo máximo de trabalho dos motoristas e C = {}, i.e., já não existirem mais clientes no conjunto C. Para esta fase construtiva foram considerados quatro métodos distintos de ordenação dos dados, i.e., ordenação dos clientes nas listas de ligação: 1. Tempos de deslocação; 2. Tempos de percurso; 3. Tamanho das janelas temporais. 4. Tamanho das janelas temporais agrupadas por intervalos de tempo. Para se validarem as restrições de capacidade dos veı́culos e as restrições das janelas temporais dos clientes, foram também desenvolvidas duas rotinas especı́ficas que são invocadas pelo algoritmo construtivo sempre que um cliente é inserido na rota. A sua função é, respectivamente: 1. Verificar se a capacidade máxima dos veı́culos foi atingida ou ultrapassada. 2. Verificar se foram violadas: as janelas temporais dos clientes, a hora de saı́da dos veı́culos do armazém, o tempo máximo que um veı́culo pode esperar em cada um dos clientes (30 minutos) antes do inı́cio da sua janela temporal, a hora de almoço dos motoristas. 52 A. Moura, J.F. Oliveira / Investigação Operacional, 24 (2004) 45-62 // Algoritmo construtivo Inicio: Para cada escalão fazer Enquanto (Elementos escalão != 0) Elimina Elementos da Melhor Rota; Condição verdadeira = Calcula Rota; Se(Melhor Rota > 0) Guarda Melhor Rota; Retira Elementos Lista Escalão; Senão Guarda Elementos não Inseridos; Fim Se Fim Enquanto Fim Para Fim //Calcula Rota Inicio: Se (rota Vazia) Para cada ligação do armazém fazer Se (Cliente pertence ao escalão) Acrescenta Cliente à Rota; Condição verdadeira = Calcula Rota; Se (condição verdadeira) Retorna (verdadeiro); Senão Retira Cliente da Rota; Fim Se Fim Se Fim Para Senão Se (validaCapacidade && validaJanelasTemporais) Retorna (falso); Fim Se Se (Rota é melhor que a melhor guardada) Guarda Rota como a melhor; Fim Se Se (tamRota==numClientes ou Tempo trabalho motorista>12horas) Retorna (verdadeiro); Fim Se Para cada ligação do último Cliente na Rota fazer Se (Cliente pertence ao escalão e Cliente não pertence à Rota) Acrescenta Cliente à rota; Condição verdadeira = CalculaRota; Se (verdadeiro) Retorna (verdadeiro); Senão Retira Cliente da Rota; Fim Se Fim Se Fim Para Fim Se Retorna (falso); Fim Figura 2: Primeira subfase do algoritmo construtivo. A. Moura, J.F. Oliveira / Investigação Operacional, 24 (2004) 45-62 53 Cn Não Insere na posição 0 Arm C1 C2 C3 C4 (a) Cn Insere na posição 1 Arm C1 C2 C3 C4 Cn C2 C3 (b) Arm C1 C4 (c) Figura 3: Inserção de um elemento. Uma vez que nesta primeira subfase, não é garantida a inserção de todos os clientes nas rotas, foi necessário considerar uma segunda subfase na heurı́stica construtiva. Assim foi criado um algoritmo pós-construtivo (Figura 3) que, no caso de existirem ainda clientes não inseridos, tenta um a um inseri-los em todas as posições de todas as rotas, testando sempre todas as restrições associadas à rota respectiva. Depois de construı́das as rotas passa-se para a segunda fase da heurı́stica composta. Esta é uma fase de melhoramentos das rotas obtidas, i.e. diminuição dos tempos totais de percurso. Assim, com base na heurı́stica 2-OPT para optimização local, foram desenvolvidos dois algoritmos que executam trocas de nós vizinhos em cada uma das rotas previamente construı́das. Para cada uma das trocas efectuadas é necessário preceder à verificação das seguintes restrições: capacidade dos veı́culos, janelas temporais dos clientes e horário de trabalho dos motoristas. Esta optimização local é também executada em duas subfases, i.e. em primeiro lugar é aplicada a cada uma das rotas individualmente (Figura 4) e só depois efectuando trocas de clientes entre as várias rotas, agora incorporando uma componente aleatória. Sempre que no fim da primeira subfase se consegue efectuar alguma troca entre clientes, é de imediato aplicado o algoritmo pós-construtivo anteriormente mencionado. Caso contrário avança-se para a segunda subfase do algoritmo de melhoramentos. Como se pode verificar no pseudocódigo da Figura 4, em cada uma das rotas selecciona-se o primeiro cliente e tenta-se trocá-lo com todos os outros (Tabela 4). Sempre que se tenta uma troca, é necessário verificar se as restrições não são violadas. Caso se verifiquem todas as restrições e o novo tempo total da rota obtido seja inferior ao tempo total da rota inicial, então a troca é considerada. Caso contrário, i.e., se alguma das restrições não for validada ou se o tempo novo for superior ou igual ao tempo inicial, então o cliente volta à sua posição inicial passando-se ao cliente seguinte. Novamente, sempre que uma troca é aceite e se ainda existirem clientes não inseridos do mesmo escalão da rota que está a ser melhorada, é chamado o algoritmo pós-construtivo que tenta inserir mais algum cliente. De facto, tendo a ordem de visita aos clientes sido alterada poderá ser possı́vel inserir mais um cliente na rota. Neste segundo passo do algoritmo de melhoramentos são efectuadas trocas de vários clientes de uma rota com os restantes clientes de rotas diferentes, embora do mesmo escalão. O número de clientes de cada rota, que vão sofrer alterações nas suas posições, é aleatório. Contudo a 54 A. Moura, J.F. Oliveira / Investigação Operacional, 24 (2004) 45-62 // Algoritmo de melhoramento individual Inicio: Para cada escalão fazer Para cada rota fazer Fazer Condição verdadeira =Optimiza Uma Rota; Enquanto (Verdadeiro) Retira Listas Vazias de Elementos NãoInseridos; Fim Para Fim Para Fim // Optimiza Uma Rota Inicio: Para cada elemento da rota fazer Inserir Elementos Não Inseridos; Fim Para Para cada elemento da rota fazer Cliente i; Cliente sucessor de i; Troca i com sucessor de i; Se(validaCapacidade &&validaJanelasTemporais) Se (tempoPercursoTotalNovo<tempoPercursoTotal) retorna (verdadeiro); Fim Se Fim Se Troca sucessor de i com i; Fim Para retorna (falso); Fim Figura 4: Algoritmo de optimização local para rotas individuais. Troca Válida Arm C1 C2 C3 C4 C1 C3 C4 C1 C3 C4 (a) Não há trocas válidas Arm C2 (b) Próximo elemento da lista Arm C2 (c) Figura 5: Troca entre clientes. A. Moura, J.F. Oliveira / Investigação Operacional, 24 (2004) 45-62 55 Escalão 1 1ª posição aleatória (cliente C13) Arm C11 C12 C13 C14 Rota 1 Troca válida Arm C21 C22 C23 C24 Rota 2 Figura 6: Troca do primeiro cliente. Escalão 1 1ª posição aleatória (Cliente C24) Arm C11 C12 C24 C14 C22 C23 C13 Rota 1 Arm C21 Rota 2 Figura 7: Troca aceite. distribuição de probabilidade não é uniforme: há uma probabilidade de 0.45 de ser trocado um número de clientes que se situa entre 1/4 e 1/2 do número total de clientes da rota, enquanto a probabilidade de serem trocados menos de 1/4 dos clientes ou mais de metade é de 0.55. Depois de determinado o número de clientes a ser trocados por rota, define-se também, de uma forma aleatória e dentro da própria rota, quais os clientes que vão estar sujeitos às trocas. Para cada um desses clientes, escolhido ao acaso, são efectuadas trocas com todos os outros clientes das restantes rotas do mesmo escalão (Figura 5). Para cada uma das trocas efectuadas são sempre validadas as restrições, para que a troca seja considerada admissı́vel. A troca será aceite se, para além de admissı́vel, verificar ainda a seguinte condição: a soma dos tempos totais das duas rotas em questão, depois da troca efectuada, deve ser inferior à soma dos tempos totais das duas mesmas rotas antes da troca. Se esta condição for verificada então a troca é efectuada (Figura 6). Caso contrário, os clientes são mantidos nas suas posições iniciais nas respectivas rotas e a execução do algoritmo continua até que não existam mais posições nem rotas para executar trocas. De acordo com o exemplo das Figura 5 e 7, verifica-se que sendo uma troca aceite o algoritmo reinicia-se tentando-se trocar esse cliente (no exemplo o cliente C24 que pertence agora à Rota 1), com todos os outros clientes das outras rotas do escalão, tentando desta forma obter uma rota melhor que a anterior. Quanto o cliente seleccionado já não puder ser efectivamente trocado, esta rotina termina com a melhor rota até então encontrada e passa ao passo seguinte. No passo seguinte executa-se o algoritmo de optimização (Figura 4) para uma rota, tentando desta forma optimizar as duas rotas alteradas. Além disso tenta também inserir 56 A. Moura, J.F. Oliveira / Investigação Operacional, 24 (2004) 45-62 Escalão 1 2ª posição aleatória (Cliente C11) Arm C11 C12 C24 C14 C22 C23 C13 Rota 1 Arm C21 Rota 2 Figura 8: Novo cliente. quaisquer elementos não inseridos que eventualmente ainda existam (Figura 8). Seguidamente escolhe aleatoriamente um outro cliente e retoma todo o processo (Figura 7) até que já não existam mais clientes em nenhuma rota para efectuar trocas. Verifica-se que no final da execução deste algoritmo se obtêm sempre reduções significativas dos tempos totais dos percursos. Se no final da execução global do algoritmo ainda existir algum cliente não inserido, duas medidas poderão ser tomadas. A primeira é a re-execução do algoritmo, que tem tempos de execução muito pequenos, e tentar desta forma obter um resultado em que todos os clientes sejam inseridos, uma vez que a segunda subfase da segunda fase do algoritmo tem uma componente aleatório na selecção dos clientes a serem trocados entre as várias rotas. Alternativamente, poderá ser criada uma nova rota (com um novo veı́culo) para esse ou esses clientes. 5 Resultados obtidos Para cada um dos métodos de ordenação dos dados apresentados neste artigo, foram efectuados testes utilizando instâncias com 50, 100 e 150 clientes. Mesmo quando o número de clientes é igual, todas as instâncias diferem no que diz respeito às localizações dos clientes, às encomendas, aos tipos de acesso, etc. Estas diferenças são fundamentais para retirar conclusões acerca dos resultados obtidos pelos quatro métodos de ordenação quando aplicados na heurı́stica composta desenvolvida. Para cada um destes exemplos e para cada um dos métodos de ordenação dos dados a heurı́stica foi executada 20 vezes, obtendo-se assim resultados diferentes para o total dos tempos de percurso. Os valores apresentados correspondem às médias obtidas para cada uma das execuções da heurı́stica composta e para cada um dos exemplos. Os resultados obtidos são analisados segundo quatro vectores diferentes: 1. Tempo total dos percursos Os melhores tempos obtidos (Tabela 9) são relativos ao método de ordenação de dados pelo tamanho das janelas temporais agrupadas em intervalos de tempo e o pior dos casos para o método de ordenação pelos tempos de deslocação. 2. Número de clientes não inseridos nas rotas A. Moura, J.F. Oliveira / Investigação Operacional, 24 (2004) 45-62 // Algoritmo de Pós-Optimização Inicio: Para cada escalão fazer Para cada rota fazer Gera Número de Clientes Aleatórios; Para cada número de clientes aleatórios fazer Gera Um Cliente Aleatório; Para cada rota fazer Se rota é diferente da rota do cliente aleatório Fazer Condição verdadeira = Optimização entre Rotas; Enquanto (verdadeiro) Fazer Condição verdadeira = Optimização Uma Rota (do Cliente Aleatório); Enquanto (verdadeiro) Retira Listas Vazias de Elementos Não Inseridos; Fazer Condição verdadeira = Optimização Uma Rota (outra Rota); Enquanto (verdadeiro) Retira Listas Vazias de Elementos Não Inseridos; Fim Se Fim Para Fim Para Fim Para Fim Para Fim // Optimização entre Rotas Inı́cio: TempoTrabalho=TtrabalhoRota(do cliente aleatório) +TtrabalhoRota; Para cada elemento da rota fazer Troca Cliente Aleatório com Cliente da rota; TempoTrabalhoNovo=TtrabalhoNovo da rota do cliente aleatório+TtrabalhoNovo da rota; Se (validaCapacidade &&validaJanelasTemporais) Se (TempoTrabalhoNovo<TempoTrabalho) retorna (verdadeiro); Fim Se Fim Se Troca Cliente da rota com Cliente Aleatório; Fim Para retorna (falso); Fim Figura 9: Algoritmo para troca de clientes aleatórios entre rotas. 57 A. Moura, J.F. Oliveira / Investigação Operacional, 24 (2004) 45-62 Ordenação por Tempo de Deslocação 160 140 120 100 80 60 40 20 0 Ordenação por Tempo de Percurso Média tempos totais Ordenação pelo Tamanho JT Melhor tempo Minutos 58 Ordenação pelo Tamanho JT Agrupadas em Intervalos Tempo Figura 10: Tempos médios e Melhor dos tempos totais. 6 Ordenação por Tempo de Deslocação 5 4 Ordenação por Tempo de Percurso 3 2 Ordenação pelo Tamanho JT 1 0 Nº médio de Rotas por escalão Ordenação pelo Tamanho JT Agrupadas em Intervalos Tempo Figura 11: Número de rotas / Número veı́culos. Para algumas instâncias, e independentemente do método de ordenação de dados escolhido, verificou-se a existência de clientes não inseridos na fase construtiva da heurı́stica, sendo estes sempre inseridos posteriormente na fase de melhoramento. 3. Número de rotas (número de veı́culos) Os piores resultados obtiveram-se para o método tamanho das janelas temporais ordenadas (Figura 10), obtendo-se com os outros três métodos valores muito próximos ou mesmo, na maior parte dos casos, iguais. 4. Tempos de execução do algoritmo Os tempos de execução dependem bastante das localizações dos clientes, associadas às respectivas janelas temporais. Em média são necessários 50 segundos para os casos com 50 clientes e 1min30seg para os casos com 150 clientes, não sendo no entanto esta relação linear. Comparando os tempos de processamento entre os quatro métodos de ordenação (Figura 11), verifica-se que no caso do tempo de deslocação ordenado e no tempo de percurso ordenado, obtêm-se resultados mais rapidamente que no caso dos outros dois métodos. A. Moura, J.F. Oliveira / Investigação Operacional, 24 (2004) 45-62 59 Ordenação por Tempo de Deslocação 70 68 66 64 62 60 58 56 54 52 Ordenação por Tempo de Percurso Ordenação pelo Tamanho JT Tempos processamento (seg) Ordenação pelo Tamanho JT Agrupadas em Intervalo s Tempo Figura 12: Tempos de processamento. 6 Conclusões Neste artigo apresenta-se uma heurı́stica composta para a determinação de rotas para veı́culos, que foi desenvolvida para uma empresa de distribuição de produtos alimentares. A primeira fase da heurı́stica é construtiva, baseia-se no algoritmo do vizinho mais próximo e utiliza uma métrica de acordo com quatro métodos de ordenação de dados: tempos de percurso, tempos de serviço, janelas temporais e janelas temporais por intervalos de tempo. A segunda fase da heurı́stica está dividida em duas subfases baseadas no algoritmo 2OPT. Na primeira fase faz-se uma optimização local considerando individualmente cada rota, enquanto na segunda subfase se procede a uma optimização local com trocas entre as várias rotas. Esta última subfase incorpora uma componente aleatória. O principal objectivo da empresa era acomodar um crescente número de clientes sem alterar o número de veı́culos utilizados na distribuição diária, uma vez que recorria a veı́culos subcontratados e o contrato permitia flexibilidade na gestão das rotas. Por outro lado a empresa procurava responder melhor às alterações de última hora nas encomendas dos clientes. O sistema informático onde a heurı́stica descrita neste artigo foi implementada tornou estes objectivos possı́veis pela conjugação dos bons resultados obtidos com esta heurı́stica composta (melhores que o anterior planeamento manual) com os baixos tempos de processamento. Por comparação com os resultados dos planeamentos manuais anteriores podemos afirmar que a heurı́stica composta produz resultados bastante satisfatórios, quer em termos de tempo total dos percursos quer em termos de tempo de processamento. 7 Referências [1] Croes, A., “A method for solving travelling salesman problem”, Operations Research (1958), 6, 791-812. [2] Derigs, U., and Metz, A., “A matching-based approach for solving a delivery pick-up vehiclerouting problem with time constraints”, OR Spektrum, (1992) 14 (2), 91-106. [3] Gendreau, M., Laporte, G., and Vigo, D., “Heuristics for the travelling salesman problem with pickup and delivery”, Computers & Operations Research, (1999) 26, 699-714. 60 A. Moura, J.F. Oliveira / Investigação Operacional, 24 (2004) 45-62 [4] Helsgaun, K., “An effective implementation of the Lin-Kernighan travelling Salesman heuristic”, European Journal of Operational Research, (2000) 126(1), 106-130. [5] Johnson, D., and McGeoch, L., “The Traveling Salesman Problem: a case study in local optimization”, Local Search in Combinatorial Optimization, E.H.L. Aarts and J.K. Lenstra (eds.), Wiley, N.Y., (1995), 215-310. [6] Laporte, G., “The vehicle routing problem: An overview of exact and approximated algorithms”, European Journal of Operational Research, (1992), 59(2), 345-358. [7] Laporte, G., Gendreau, M., Potvin, J., and Semet, F., “Classical and modern heuristics for the Vehicle routing problem”, International Transactions in Operational Research, (2000) 7, 285-300. [8] Laporte, G., “The travelling salesman problem: An overview of exact and approximated algorithms”, European Journal of Operational Research, (1992), 59(2), 231-248. [9] Lin, S., “Computer solutions to the travelling salesman problem”, Bell System Technical Journal, (1965) 44, 2245-69. [10] Lin, S., and Kernighan, B., “An effective heuristic algorithm for the travelling salesman problem”, Operations Research, (1973) 21, 498-516. Anexo Neste exemplo existem 50 clientes, com encomendas de vários tipos de produtos, e três tipos de veı́culos diferentes. Os resultados apresentados são relativos a dois dos quatro métodos de ordenação de dados. O primeiro método - ordenação pelo tempo de deslocação, é o método que se obteve piores resultados, em termos do total dos tempos de percurso dos veı́culos. O segundo método apresentado - ordenação pelo tamanho das janelas temporais agrupadas por intervalos de tempo, é o método que apresentou melhores resultados. É de salientar, que nos resultados da fase construtiva do primeiro método existe um cliente pertencente ao escalão 3 que não foi inserido na rota. Sendo posteriormente inserido na fase de optimização. 1. Ordenação por tempo de deslocação Fase 1 – Construtiva Número Clientes Hora de Saı́da do Armazém Hora de Chegada ao Armazém Hora Almoço Tempo de Percurso Total Carga Total (Kg) Fase 2 – Optimização local Número Clientes Hora de Saı́da do Armazém Hora de Chegada ao Armazém Hora Almoço Tempo de Percurso Total Carga Total(Kg) Escalão 1 Rota 1 Rota 2 11 6 6h50 6h42 17h19 16h39 12h40 às 12h14 às 13h40 13h14 9h23 8h57 12170 5290 Escalão 2 Rota 1 Rota 2 14 5 6h56 5h35 18h59 14h12 12h18 às 12h06 às 13h18 13h06 11h03 7h37 9930 3931 Escalão 3 Rota 1 12 6h48 20h06 12h18 às 13h18 12h17 15050 Escalão 1 Rota 1 Rota 2 11 6 6h56 6h42 16h48 16h39 12h09 às 12h14 às 13h09 13h14 8h52 8h57 12170 5290 Escalão 2 Rota 1 Rota 2 14 5 6h56 5h35 18h46 14h12 12h18 às 12h06 às 13h18 13h06 10h50 7h37 9930 3931 Escalão 3 Rota 1 13 6h48 20h35 12h18 às 13h18 12h46 15210 A. Moura, J.F. Oliveira / Investigação Operacional, 24 (2004) 45-62 61 Ordem de visita aos clientes: 30 26 Escalão 1 Construção 33 27 30 26 18 3 Escalão 1 Optimização 33 27 31 31 6 32 5 18 Rota 1 3 32 5 6 Rota 1 1 1 Rota 2 19 Rota 2 2 28 19 29 4 2 28 29 4 20 20 8 11 35 12 10 40 25 7 36 22 Escalão 2 Construção 39 8 11 35 38 12 10 37 34 40 25 7 36 22 38 37 34 24 24 23 23 Rota 2 Rota 1 Rota 2 Rota 1 41 9 21 17 Escalão 2 Optimização 39 41 9 21 44 14 17 43 Rota 1 43 13 47 Escalão 3 Optimização 44 14 46 46 13 Escalão 3 Construção 47 42 42 Rota 1 50 50 45 45 49 16 48 15 48 49 16 15 2. Ordenação pelo tamanho das Janelas Temporais agrupadas em intervalos de tempo: Fase 1 - Construtiva Número Clientes Hora de Saı́da do Armazém Hora de Chegada ao Armazém Hora Almoço Tempo de Percurso Total Carga Total (Kg) Escalão 1 Rota 1 Rota 2 11 6 5h56 6h42 17h19 16h39 12h40 às 12h14 às 13h40 13h14 9h23 8h57 1217 5290 Escalão 2 Rota 1 Rota 2 14 5 6h56 6h00 18h59 14h37 12h18 às 12h04 às 13h18 13h04 11h03 7h37 9930 3931 Escalão 3 Rota 1 Rota 2 11 3 6h48 6h11 19h26 11h58 12h18 às 13h18 11h37 4h46 14550 760 62 A. Moura, J.F. Oliveira / Investigação Operacional, 24 (2004) 45-62 Fase 2 – Optimização Local Número Clientes Hora de Saı́da do Armazém Hora de Chegada ao Armazém Hora Almoço Hora Almoço Tempo de Percurso Total Carga Total (Kg) Escalão 1 Rota 1 Rota 2 11 6 6h39 6h42 16h16 14h02 12h47 às 12h03 às 13h47 13h03 8h37 6h20 11005 6455 Escalão 2 Rota 1 Rota 2 14 5 6h00 6h56 18h20 11h28 12h10 às 13h10 11h20 3h32 9862 3999 Escalão 3 Rota 1 Rota 2 11 3 6h48 6h17 17h24 10h33 12h14 às 13h14 9h36 3h15 14520 790 Ordem de visita aos clientes: 30 26 30 Escalão 1 Construção 33 27 26 Escalão 1 Optimização 33 27 31 31 18 3 18 3 6 32 5 6 32 5 Rota 1 Rota 1 1 1 Rota 2 Rota 2 19 2 28 19 29 2 28 29 4 4 20 20 Escalão 2 Construção 8 11 35 10 40 22 24 25 12 7 36 39 11 34 38 Escalão 2 Optimização 8 35 37 10 40 22 24 25 12 7 36 23 34 38 39 37 23 Rota 2 Rota 2 Rota 1 Rota 1 41 41 9 9 21 21 Escalão 3 Construção 14 17 14 17 44 46 Escalão 3 Optimização 44 46 43 43 Rota 1 13 Rota 1 13 47 42 42 Rota 2 50 49 16 15 47 Rota 2 45 48 49 16 15 50 48 45 J.M. Valente, R.A. Alves / Investigação Operacional, 24 (2004) 63-71 63 A note on polynomially-solvable cases of common due date early-tardy scheduling with release dates Jorge M. S. Valente ∗ ∗ Rui A. F. S. Alves ∗ Faculdade de Economia, Universidade do Porto {jvalente, ralves}@fep.up.pt Abstract In this paper we consider the single machine scheduling problem with integer release dates and the objective of minimising the sum of deviations of jobs’ completion times from a common integer due date. We present an efficient polynomial algorithm for the unit processing time case. We also show how to calculate in polynomial time the minimum non-restrictive due date for the general case. Keywords: scheduling, early-tardy, common due date, unit processing times, release dates 1 Introduction The scheduling problem considered in this paper can be stated as follows. A set of n independent jobs {J1 , J2 , · · · , Jn }, each with a possibly different integer release date rj , a common integer due date d and a processing time pj , has to be scheduled without preemptions on a single machine that can handle at most one job at a time. The objective is to minimise the Pn sum of the absolute deviations of the jobs’ completion times from the common due date j=1 |Cj − d|, where Cj is the completion time of job Jj . In the classification scheme proposed by Lawler, P Lenstra, Rinnooy Kan and Shmoys [6], this problem can be represented as 1 |dj = d, rj | |Cj − d|. Scheduling models with both earliness and tardiness costs are particularly appealing, since they are compatible with the philosophy of just-in-time production. The model is also made more realistic by the existence of different release dates, since in most real production settings the orders are released to the shop floor over time (and not all simultaneously). Therefore, the problem considered has several potential practical applications. The identical release dates version of this problem with a non-restrictive Pdue date (i.e., a due date that does not constrain the optimal schedule cost) - 1 |dj = dnr | |Cj − d| - can be solved in O (n log n) time by algorithms presented by Kanet [5] and Bagchi, Sullivan and c 2004 Associação Portuguesa de Investigação Operacional 64 J.M. Valente, R.A. Alves / Investigação Operacional, 24 (2004) 63-71 P Chang [1]. Hall, Kubiak and Sethi [4] proved that the restrictive version 1 |dj = dr | |Cj − d| is N P −hard. Models with different release dates have been addressed by Nandkeolyar, Ahmed and Sundararaghavan [7], Sridharan and Zhou [8] and Bank and Werner [3]. P Nandkeolyar, Ahmed and Sundararaghavan [7] consider the single machine problem 1 |rj | cj |dj − Cj |, where cj and dj are, respectively, the cost per unit time and the due date of Jj . They present several heuristics, developed in a modular fashion. Sridharan and Zhou [8] present a decision theory based approach for a more general problem where the cost per unit time is allowed to be different according to whether the job is early or tardy. Bank and Werner [3] consider a model with unrelated parallel machines, a common due date and earliness and tardiness costs that may differ between jobs. They present several constructive and iterative heuristics. It should be pointed out that there are a large number of papers considering earliness and tardiness penalties. Only the papers above are reviewed because they consider problems that are closest to ours. For more information on problems with earliness and tardiness costs, the interested reader is referred to Baker and Scudder [2], who present a comprehensive survey of early/tardy scheduling. In section 2 a O (n log n) algorithm for the problem with unit processing times 1 |pj = 1, dj = d, rj | X |Cj − d| is presented. A polynomial algorithm for calculating the minimum non-restrictive value of d P in the general case 1 |dj = d, rj | |Cj − d| is also given in section 3. 2 An algorithm for problem 1 |pj = 1, dj = d, rj | P |Cj − d| In this section a O (n log n) algorithm for the problem with unit processing times is presented. Several lemmas and theorems are first developed. These lemmas and theorems characterize the structure of an optimal solution. The algorithm then simply schedules the jobs in such a way that the lemmas and theorems are satisfied (hence optimally). Lemma 1 There exists an optimal sequence where each Cj is integer. Proof. Any feasible schedule with non integer Cj ’s can be transformed into a feasible sequence, of lower or equal cost, where all Cj ’s are integer. Starting from d and scanning left, take the first job, if any, with a non integer Cj < d such that there exists idle time to the right of that job. Move that job to the right until it is blocked by another job or it completes at an integer time, whichever occurs first. Any such movement will decrease the cost of the schedule. Repeat until no such jobs exist. Perform a similar scan to the right of d, this time moving jobs to the left (such a move is always feasible because each job has an integer r j and we stop as soon as an integer start time is reached, if the job is not blocked before). Again, any such movement decreases the schedule cost. At this time, at most one group of jobs performed consecutively with no idle time in between (or possibly just a single job) starts and completes at non integer times that encompass d. Let A and B denote the sets of jobs in that group that complete after and before d, respectively. If |A| > |B|, move the block backwards until an integer start time is reached. The schedule cost will decrease, since the earliness of each J.M. Valente, R.A. Alves / Investigação Operacional, 24 (2004) 63-71 65 job in B increases by the amount of backwards movement but the tardiness of each job in A decreases by that same amount. If |A| < |B|, move the block forward instead. If |A| = |B|, move either forward or backward. The new schedule has all integer C j and its cost is lower or the same. This lemma allows us to focus on unit time slots that begin at integer times, since there exists an optimal sequence where jobs are scheduled in n of those slots. This result also indicates that the problem could be formulated as a weighted bipartite matching problem, and therefore solved in O n3 time, but a more efficient approach is possible. The next lemma identifies the best possible schedule. Lemma 2 Any feasible sequence the jobs are scheduled in the n consecutive time in which slots in the time range d − n2 , d + n2 is also optimal. Proof. No slot in this range has a cost higher than n2 . Since any slot not in this time range has a cost that is at least as high as this value, the jobs are indeed scheduled in the n least cost slots and the sequence is therefore optimal. Assume, for the remainder of this section, that jobs have been renumbered in non decreasing order of their release dates. Let ECj be the earliest possible completion time of job j when jobs are considered for processing in increasing index order. Let EC = EC n denote the earliest possible completion time of the job with the largest index. Also note that, according to their definition, all ECj ’s must be different. to schedule the jobsinthe n consecutive time slots in the time range Lemma n 3 It isn possible d − 2 , d + 2 if and only if EC ≤ d + n2 . Proof. If EC > d + n2 then obviously atleast one job cannot be completed up to d + n2 . If EC ≤ d + n2 , any job with ECj > d − n2 can be scheduled to complete at its ECj while the remaining jobs can be arbitrarily assigned to the still empty time slots in the optimal range. That assignment is clearly feasible, since the start time of each of those jobs is being delayed. The next theorem identifies the minimum non-restrictive due date. Theorem 4 The due date d is non-restrictive when d ≥ EC − n 2 . Proof. Lemma 2 identifies the best possible schedule. From lemma 3, that schedule is feasible only if d ≥ EC − n2 . The next lemmas provide further characteristics of an optimal solution that will be used in the algorithm. Lemma 5 If EC > d + optimal sequence. n 2 , all jobs will be scheduled in the time range d − n2 , EC in an 66 J.M. Valente, R.A. Alves / Investigação Operacional, 24 (2004) 63-71 Proof. It is clear that all slots in the range have a lower cost than any slot that starts at or n later than EC. Also jobs with ECj > d − 2 can once again be scheduled to complete at their ECj while the remaining n jobs can be arbitrarily assigned to the still empty time slots in n the range d − 2 , d + 2 , thereby decreasing their cost. Lemma 6 There exists an optimal schedule in which all jobs with ECj ≥ d are scheduled to complete at their ECj . Proof. Consider the slots with a completion time equal to ECj , for ECj ≥ d. If a job with ECj ≥ d is completed later than its ECj , and the slot with a completion time equal to ECj is free, one can simply move that job into this slot (thereby decreasing its cost, since it will be completed earlier). Also, any feasible schedule in which any slot with a completion time equal to ECj , for ECj ≥ d, is occupied by a job with ECj < d (an offending job) can be converted into an equal cost sequence in which all such slots are filled with jobs with ECj ≥ d. For each of those slots, any offending job is simply swapped with the job whose ECj is equal to that slot’s completion time. These swaps do not change the schedule cost and feasibility is maintained (the release date of the offending job is not larger than that of the job with which it is swapped, since its ECj is lower, so it can also be feasibly scheduled in its destination slot). After all such swaps are performed, only jobs with ECj ≥ d use those slots, though they are not necessarily in ECj order (jobs are considered in increasing order of their indexes when calculating the ECj ’s, so some jobs can feasibly be scheduled before their ECj ). If that is the case, reordering the jobs according to their ECj will not alter cost nor feasibility. Therefore, all jobs with ECj ≥ d can be optimally scheduled to complete at their ECj . Lemma 6 assigns optimal slots for jobs with ECj ≥ d, so all that remains is to optimally schedule the remaining jobs in the available slots. The next lemma considers those jobs. Lemma 7 Given that jobs with ECj ≥ d are scheduled according to lemma 6, the remaining jobs should be scheduled in the available slots that are closest to d (i.e., the lowest cost slots). Proof. It simply needs to be proved that such a schedule is feasible, since it is clearly optimal. Let |B| be the number of jobs with ECj < d (and therefore of necessary slots). The earliest possible completion time of the available slots that are closest to d is d − 1, d − 2, · · · , d − |B|. The latest possible ECj ’s of the remaining jobs are also d − 1, d − 2, · · · , d − |B|, so they can be feasibly assigned to the least cost slots. Since any other case involves later slots and/or earlier ECj ’s, it is always feasible to schedule the remaining jobs in the least cost available slots. An easy way for an algorithm to ensure feasibility is to simply consider jobs in decreasing order of their ECj . An algorithm that schedules jobs in such a way that the previous lemmas are satisfied is now presented. The algorithm uses a min heap of free time slot ranges and their associated minimum cost (the cost of the best slot in that range), which serves as the key for pushing and popping elements from the heap. J.M. Valente, R.A. Alves / Investigação Operacional, 24 (2004) 63-71 67 Algorithm 1 Step 1: Sort and renumber jobs in non decreasing order of rj . Step 2: Calculate ECj for all jobs. Step 3: If EC < d + n2 , push range EC, d + n2 on heap. Step 4: For each job, in decreasing order of ECj , do: If ECj ≥ d schedule j to complete at its ECj ; if j > 1, push range [ECj−1 , ECj − 1] on heap; Else schedule j to complete at its ECj or at the best available free time slot on the heap (whichever has a lower cost; ties can be broken arbitrarily); in the latter case update the range that included that slot and re-insert it on heap; if j > 1, push on heap: range [ECj−1 , ECj − 1] if j completes at its ECj ; range [ECj−1 , ECj ] if j was scheduled at the best available free time slot on the heap. In the previous algorithm ranges are obviously only pushed on the heap when the upper limit is higher than the lower limit. Updating a time range that ends at or before d or begins at or after d simply involves increasing its minimum cost by one and decreasing its finish time, or increasing its start time, respectively, by one time unit (thereby eliminating its previously best slot). Only one range that contains d as an interior point can be generated. When such a range is updated, it’s divided into the two separate ranges that result from eliminating the time slot which finishes at d. Step 1 takes O (n log n) time and Step 2 O (n) time. Step 3 can be done in constant time. In Step 4, the For loop is executed n times. In each iteration pushing or popping the heap takes O (log n) time and scheduling the job and updating time ranges (when necessary) takes O (1) time. Therefore, the complexity of the algorithm is O (n log n). Theorem 8 Algorithm 1 generates an optimal schedule. Proof. The theorem follows from the previous lemmas. Jobs with ECj ≥ d are scheduled as in lemma 6. The algorithm pushes all available time slots with completion time not later n than max EC, d + 2 on the heap and jobs with ECj < d are on the best of nscheduled those slots, as established in lemma 7. Note thatwhen EC ≤ d + , jobs with ECj ≥ d are 2 scheduled to finish inside the optimal range d − n2 to d + n2 . The remaining jobs will also be scheduled inside this range, since the algorithm will push its slots into the heap (note that range EC, d + n2 is pushed on the heap). In table 1 an example for Algorithm 1 is presented; assume d = 7. The jobs are already renumbered in non decreasing order of rj . In step 2 the following ECj ’s are calculated: EC1 = 1; EC2 = 3; EC3 = 4; EC4 = 6 and EC5 = 8. The due date is in this case nonrestrictive, since EC ≤ d + n2 (8 ≤ 7 + 2). In step 3 the range [8, 9] (cost: 2) is pushed on 68 J.M. Valente, R.A. Alves / Investigação Operacional, 24 (2004) 63-71 Table 1: Algorithm 1 example. index rj 1 0 2 2 3 2 4 5 5 7 the heap. In step 4 the jobs are scheduled in decreasing index order. Since EC5 ≥ d, job 5 is scheduled in the slot [7, 8] and range [6, 7] (cost: 0) is pushed on the heap. Job 4 is then considered, and EC4 < d. If job 4 is scheduled to complete at EC4 = 6 its cost will be 1; if it is scheduled in the best slot available on the heap, its cost is 0. Therefore, job 4 is scheduled in the slot [6, 7] and range [4, 6] (cost: 1) is pushed on the heap. Job 3 is the next job to be scheduled, and EC3 < d. If job 3 is scheduled to complete at EC4 = 4 its cost will be 3; if it is scheduled in the best slot available on the heap (slot [5, 6]), its cost is 1. Job 3 is then scheduled in the slot [5, 6], and both the updated range [4, 5] (cost:2) and the new range [3, 4] (cost: 3) are inserted in the heap. The remaining jobs will then be scheduled slots [8, 9] n in the n and [4, 5]. The algorithm schedules the jobs in the optimal range d − 2 , d + 2 , in this case [4, 9]. 3 Calculating the minimum non-restrictive common due date P for the general case 1 |dj = d, rj | |Cj − d| With different release dates, the due date d will be non-restrictive when the optimal schedule for the non-restrictive version of the problem with equal release dates is feasible, since clearly no better schedule can be generated. Therefore, the minimum value of the common due date d for which that schedule is feasible must be found. Throughout this section assume that the jobs have been renumbered in non decreasing order of pj . An optimal schedule for the nonrestrictive version of the problem with equal release dates can be determined by the following procedure presented by Kanet [5]. Let B be a sequence of jobs to be scheduled without idle time such that the last job in B is completed at d. Let A be a sequence of jobs to be scheduled without idle time such that the first job in A starts at d. An optimal schedule for the problem with identical release dates consists of B followed by A, given that those sequences are generated by the following rule: assign jobs alternately, and in their index order, to the beginning of B and end of A, starting with B if n is odd and A otherwise. The minimum nonrestrictive common due date P for the problem with equal release dates, which will be denoted as ∆r=0 , is then ∆r=0 = j∈B pj . The minimum non-restrictive due date when different release dates are allowed will now be considered. When all jobs share a common release date r, the smallest non-restrictive common due date will simply be ∆r=0 + r. If jobs have different release dates as well as different processing times, one can determine the start time of each job in the schedule generated by Kanet’s procedure (assuming all release dates equal to zero) and calculate the maximum violation of a release date (i.e., the maximum positive difference between a job’s release date and its start time in the Kanet schedule). The minimum non-restrictive common due date could then be obtained by adding that maximum violation to ∆r=0 . When different jobs have identical processing times, the situation is more complicated. Since processing times are not unique, ties occur when renumbering the jobs in non decreasing order of p j , and several different Kanet schedules may be generated, each leading to a possibly different maximum J.M. Valente, R.A. Alves / Investigação Operacional, 24 (2004) 63-71 69 violation of a release date. Therefore, when renumbering jobs, ties must be broken in such a way that the resulting Kanet schedule minimizes the maximum violation of a release date. The following algorithm generates the minimum non-restrictive value of the common due date d (denoted by ∆) when release dates are allowed to be different, and different jobs may have identical processing times. If all release dates are identical, the algorithm is equivalent to Kanet’s procedure. Let pA and pB denote, respectively, the sum of the processing times of the jobs currently assigned to A and B. Jobs are added to the beginning of B and to the end of A and the first job is to be assigned to B (A) if the number of jobs n is odd (even). Algorithm 2 Step 1: Sort and renumber jobs in non decreasing order of pj ; break ties by choosing job with lower rj . Step 2: Set pA , pB and ∆ to 0. Step 3: Consider jobs in increasing index order: If pj is unique If j is the first job to be assigned, assign j to B (A) if n is odd (even); otherwise assign j to B (A) if last job was assigned to A (B). If j is added to B let ∆j = rj + pj + pB ; If ∆j > ∆, set ∆ = ∆j ; pB = p B + p j ; Else let ∆j = rj − pA ; If ∆j > ∆, set ∆ = ∆j ; pA = p A + p j ; Else let c be the number of jobs with that pj ; c c 2 jobs are assigned to A (B) and 2 to B (A) if last job was assigned to B (A); the jobs assigned to B are those with lower rj , and are assigned in non increasing order of rj ; the jobs assigned to A are those with higher rj , and are assigned in non decreasing order of rj ; update ∆j , pA and pB as above. The complexity of the algorithm is O (n log n), since Step 1 takes O (n log n) time, Step 2 takes constant time and Step 3 requires O (n) time. Theorem 9 Algorithm 2 generates the minimum non-restrictive value for d. Proof. The algorithm clearly generates a sequence that is optimal for the problem with equal rj . Any d < ∆ leads to an infeasible schedule, since at least one job will not be available at its 70 J.M. Valente, R.A. Alves / Investigação Operacional, 24 (2004) 63-71 Table 2: Algorithm 2 example. index pj rj 1 5 0 2 7 6 3 7 8 4 8 7 5 10 5 optimal start time. However, when several jobs have identical pj , several optimum sequences exist for the problem with equal rj (those jobs will have to go into certain positions, but several assignments are possible). When this happens, the algorithm assigns the jobs with lower r j to the earlier slots. Therefore, it needs to be shown that any other assignment does not lead to a lower ∆. Take any pair of jobs i and j such that ri < rj but j is scheduled before i. Assume that j is in B and i is in A. When ∆ is being calculated, we have ∆1j = rj + pj + pB and ∆1i = ri − pA , and ∆1j > ∆1i . If those jobs were swapped, we would have ∆2i = ri + pi + pB and ∆2j = rj − pA . Since ∆2i < ∆1j and ∆2j < ∆1j , the value of ∆ cannot be higher after the swap. A similar reasoning applies when both jobs are in the same set. So swapping jobs until they are in rj order will not increase ∆. In table 2 an example for Algorithm 2 is presented. Jobs have already been renumbered in non decreasing order of pj , with ties broken by lower rj . In step 3 the jobs are considered in increasing index order. The first job’s pj is unique, and job 1 is assigned to B since n is odd. The algorithm then calculates ∆1 = 0 + 5 + 0 = 5. Since ∆1 > ∆ = 0, the algorithm sets ∆ = ∆1 = 5 and then updates pB = 5. Jobs 2 and 3 have identical processing times. Job 3 (with the higher rj ) is then assigned to A, while job 2 (with the lower rj ) is assigned to B. The algorithm calculates ∆3 = 8 − 0 = 8, and sets ∆ = ∆3 = 8 and pA = 7. When job 2 is assigned to B, ∆2 = 6 + 7 + 5 = 18. Since ∆2 > ∆ = 8, the algorithm sets ∆ = ∆2 = 18 and then updates pB = 5 + 7 = 12. The processing time of job 4 is unique, and this job is assigned to A. Since ∆4 = 7 − 7 = 0, ∆ is not changed, while pA is updated to 15 (7+8). Finally, job 5 is assigned to B and ∆5 = 5 + 10 + 12 = 27. Therefore, ∆ is set at 27, which is the minimum non-restrictive due date. Acknowledgement The authors would like to thank an anonymous referee for several helpful comments that were used to improve this paper. References [1] Bagchi, U., Sullivan, R., and Chang, Y. Minimizing mean absolute deviation of completion times about a common due date. Naval Research Logistics Quarterly 33 (1986), 227–240. [2] Baker, K. R., and Scudder, G. D. Sequencing with earliness and tardiness penalties: A review. Operations Research 38 (1990), 22–36. [3] Bank, J., and Werner, F. Heuristic algorithms for unrelated parallel machine scheduling with a common due date, release dates, and linear earliness and tardiness penalties. Mathematical and Computer Modelling 33 (2001), 363–383. J.M. Valente, R.A. Alves / Investigação Operacional, 24 (2004) 63-71 71 [4] Hall, N., Kubiak, W., and Sethi, S. Earliness-tardiness scheduling problems, ii: Deviation of completion times about a restrictive common due date. Operations Research 39 (1991), 847–856. [5] Kanet, J. Minimizing the average deviation of job completion times about a common due date. Naval Research Logistics Quarterly 28 (1981), 643–651. [6] Lawler, E. L., Lenstra, J. K., Rinnooy Kan, A. H. G., and Shmoys, D. B. Sequencing and scheduling: Algorithms and complexity. In Logistics of Production and Inventory, Handbooks in Operations Research and Management Science, pp. 445-522, S. C. Graves, A. H. G. Rinnooy Kan, and P. H. Zipkin, Eds. North-Holland, Amsterdam, 1993. [7] Nandkeolyar, U., Ahmed, M. U., and Sundararaghavan, P. S. Dynamic single-machineweighted absolute deviation problem: Predictive heuristics and evaluation. International Journal of Production Research 31 (1993), 1453–1466. [8] Sridharan, V., and Zhou, Z. A decision theory based scheduling procedure for single machine weighted earliness and tardiness problem. European Journal of Operational Research 94 (1996), 292–301. A.I. Pereira, E.M. Fernandes / Investigação Operacional, 24 (2004) 73-88 73 Desempenho do método de Newton truncado em optimização não linear sem restrições Ana I.P.N. Pereira ∗ † ∗ Edite M.G.P. Fernandes † Departamento de Matemática, Instituto Politécnico de Bragança [email protected] Departamento de Produção e Sistemas, Universidade do Minho [email protected] Abstract Newton’s method for unconstrained nonlinear optimization can be a demanding iterative process. Combining Krylov iterative methods with different termination criteria for the inexact solving of the Newton system, a linear or a curvilinear search technique and monotone and nonmonotone globalization criteria, we manage to define a set of truncated Newton algorithms. Computational experiments were carried out in order to evaluate the performance of the defined algorithms. Resumo O método de Newton para a resolução de um problema de optimização não linear sem restrições pode originar um processo iterativo exigente. Combinando métodos iterativos de Krylov com diferentes critérios de terminação para a resolução inexacta do sistema Newton, uma técnica de procura que pode ser linear ou curvilı́nea e critérios de globalização monótonos e não monótonos, conseguimos definir um conjunto de algoritmos do método de Newton truncado. Foram realizadas experiências computacionais para avaliar o desempenho dos diferentes algoritmos. Keywords: Unconstrained optimization, truncated Newton’s method, nonmonotone stabilization technique. Title: Performance of the truncated Newton method in unconstrained nonlinear optimization c 2004 Associação Portuguesa de Investigação Operacional 74 1 A.I. Pereira, E.M. Fernandes / Investigação Operacional, 24 (2004) 73-88 Introdução Um problema de optimização de uma função real de n variáveis reais sem restrições pode ser formulado como minn f (x) (1) x∈IR em que f : IRn → IR se supõe não linear nas variáveis e duas vezes continuamente diferenciável. Um ponto de estacionaridade é um ponto que anula o vector gradiente da função f . Se num ponto de estacionaridade a matriz Hessiana for definida positiva então o ponto é um minimizante local. Denotaremos por g (x) o vector gradiente da função f, em x, e por H (x) a matriz Hessiana, ou das segundas derivadas, de f em x. O método de Newton é um processo iterativo que gera uma sucessão de aproximações {x k } a um ponto de estacionaridade de f usando, em cada iteração k, uma aproximação quadrática da função f em torno de um ponto xk . Mais precisamente, xk+1 é o resultado das seguintes operações: • obter o vector pk , solução do sistema H (xk ) p = −g (xk ) , (2) • afectar xk+1 = xk + pk . Denotaremos o sistema linear em (2) por sistema Newton e designaremos a sua solução, quando única, por direcção Newton. A popularidade do método de Newton deve-se à sua rápida convergência, à fácil codificação quando as derivadas são simples ou quando se recorre a ferramentas de diferenciação automática de funções e ao facto de ser invariante quando se aplica algum esquema de escalonamento das variáveis [2], [3], [14], [18], [19], [20] e [24]. Alguns aspectos menos positivos estão relacionados com o facto da convergência ser local e com a necessidade de resolver o sistema (2) em cada iteração. A primeira limitação é facilmente ultrapassada com a introdução de uma técnica de globalização no algoritmo. Quanto ao sistema Newton, poderá não se justificar a sua resolução exacta quando a aproximação x k se encontra afastada do ponto de estacionaridade ou quando o número de variáveis é elevado. Nestes casos, pode optar-se pela resolução inexacta do sistema recorrendo a métodos iterativos. Este artigo tem como objectivo fazer um estudo comparativo do desempenho de algumas variantes do método de Newton que surgem da combinação de critérios de globalização, estratégias de procura de aproximações à solução e métodos iterativos para a resolução inexacta do sistema Newton. O artigo está estruturado do seguinte modo. Na Secção 2 são apresentadas duas técnicas de procura unidimensional, uma monótona e a outra não monótona, para a globalização dos algoritmos. A apresentação é feita separadamente para as estratégias de procura linear e A.I. Pereira, E.M. Fernandes / Investigação Operacional, 24 (2004) 73-88 75 procura curvilı́nea de aproximações à solução. Na Secção 3 descrevem-se quatro métodos iterativos, baseados em espaços de Krylov, para a resolução inexacta do sistema Newton. Os resultados obtidos da implementação das diversas variantes do método de Newton são apresentados na Secção 4 e a Secção 5 contém as conclusões. 2 Técnicas de globalização Seleccionámos a técnica de procura unidimensional para a globalização dos algoritmos. Dada uma direcção de procura, este tipo de técnica calcula um escalar, λ, que representa o comprimento do passo a efectuar ao longo da direcção, de modo a que o valor da função objectivo diminua de uma forma desejada. Um critério de procura monótono exige uma redução significativa do valor da função objectivo em todas as iterações para garantir convergência para um minimizante. Por outro lado, ao forçar este comportamento, seleccionando quando necessário valores de λ menores que a unidade, a convergência pode abrandar especialmente na presença de vales profundos e estreitos [2] e [9]. Assim, parece mais vantajoso implementar um critério de procura que permita um aumento do valor da função objectivo em certas iterações, conservando a convergência global. Este tipo de critério é denominado por não monótono [9]. As aproximações à solução do problema (1) podem ser obtidas com base numa única direcção de procura ou através de uma combinação de duas direcções. No primeiro caso, a procura diz-se linear e no segundo, curvilı́nea. 2.1 Procura linear O método de Newton com procura linear consiste em definir uma sucessão de aproximações {xk } através da fórmula recursiva xk+1 = xk + λk pk , onde pk é a solução exacta ou aproximada do sistema Newton e λk é um escalar positivo escolhido de forma a satisfazer um conjunto de condições. Estas condições devem proporcionar a convergência global do método ao mesmo tempo que não devem impedir a escolha de λk = 1 na proximidade de um minimizante local onde a matriz Hessiana é definida positiva. Deste modo, o método assume assimptoticamente as boas propriedades locais do método de Newton. Apresentam-se de seguida dois grupos de condições. As condições de Wolfe e as de Goldstein [20], que definem um critério monótono, e as condições de Grippo, Lampariello e Lucidi [10] que caracterizam um critério não monótono com estabilização do passo. 2.1.1 Critério monótono As condições seguintes, conhecidas por condições de Wolfe, asseguram um decréscimo monótono dos valores da função objectivo ao longo do processo iterativo e são suficientes para assegurar a convergência global do método. Assim, o escalar positivo λ k deve satisfazer: 1 T f (xk + λk pk ) ≤ f (xk ) + γλk g (xk ) pk , γ ∈ 0, (3) 2 76 A.I. Pereira, E.M. Fernandes / Investigação Operacional, 24 (2004) 73-88 1 g (xk + λk pk ) pk ≥ ηg (xk ) pk , η ∈ ,1 2 T T . (4) A condição (3), conhecida por condição de Armijo, obriga a que f (x k+1 ) seja significativamente menor do que f (xk ) . A condição (4), conhecida por condição de curvatura, evita que λk seja demasiado pequeno. Se pk for uma direcção descendente então a existência de λk está assegurada e a convergência global do método de Newton com procura linear está garantida [2, pp. 120]. Resultados análogos de convergência global também podem ser obtidos se a condição (4) for substituı́da por 1 T ,1 (5) f (xk + λk pk ) ≥ f (xk ) + ηλk g (xk ) pk , η ∈ 2 (veja-se [20, pp. 490]). As condições (3) e (5) são conhecidas por condições de Goldstein e têm a vantagem de não necessitar do cálculo do gradiente g (xk + λk pk ). 2.1.2 Critério não monótono com estabilização do passo O critério não monótono com estabilização do passo não força uma redução dos valores da função objectivo em todas as iterações. De facto, o passo pode ser automaticamente aceite, sem avaliar a função objectivo no novo iterando, se o teste de estabilização definido por kpk k ≤ ∆k for satisfeito, para alguma sucessão {∆k } que converge para zero. Este teste tem como objectivo verificar se os iterandos estão a convergir ou se a convergência tem que ser forçada por um procedimento de procura não monótono [10]. Este procedimento usa na condição de Armijo um valor de referência F j , em vez de f (xk ), f (xk + λk pk ) ≤ Fj + γλk g (xk )T pk (6) em que Fj é o maior valor que a função atinge num número pré-determinado de iterações anteriores. A condição (6) pode ser vista como uma generalização da condição (3), no sentido de que permite o aumento do valor da função sem afectar as propriedades de convergência [9, pp. 709]. 2.2 Procura curvilı́nea A direcção Newton pk pode não ser uma direcção descendente e, por isso, pode não existir λk que satisfaça qualquer das condições apresentadas anteriormente. Para obviar esta dificuldade, Goldfard [5] e McCormick [16] propuseram uma variante do método de Newton que define xk+1 não só à custa da direcção Newton pk mas também à custa de uma direcção de curvatura negativa sk , quando detectada. Moré e Sorensen [17] propõem duas técnicas para o cálculo da direcção sk . O método de Newton com procura curvilı́nea consiste em definir xk+1 = xk + λ2k pk + λk sk , com λk um escalar positivo a satisfazer um conjunto de condições, das quais destacamos o critério monótono proposto por Moré e Sorensen [17] e o critério não monótono com estabilização do passo proposto por Ferris, Lucidi e Roma [4]. A.I. Pereira, E.M. Fernandes / Investigação Operacional, 24 (2004) 73-88 2.2.1 77 Critério monótono As condições seguintes são conhecidas por condições de Goldstein modificadas de segunda ordem e envolvem as duas direcções previamente calculadas pk e sk f xk + λ2k pk f xk + λ2k pk γλ2k (7) ηλ2k 1 T 1 T g (xk ) pk + sk H (xk ) sk , η ∈ ,1 . 2 2 (8) + λk sk ≤ f (xk ) + + λk sk ≥ f (xk ) + 1 H (xk ) sk g (xk ) pk + sT 2 k T 1 , γ ∈ 0, 2 Quando o par de direcções (pk , sk ) verifica certas propriedades, estas condições garantem a convergência para um ponto de estacionaridade de f onde a Hessiana é semidefinida positiva [17, pp. 15]. 2.2.2 Critério não monótono com estabilização do passo Na sequência do que foi referido em 2.1.2, a condição generalizada que corresponde a (7) para a aceitação de λk é neste caso dada por f xk + λ2k pk + λ k sk ≤ F j + γλ2k 1 T T g (xk ) pk + sk H (xk ) sk , 2 em que Fj é o valor de referência. Na procura curvilı́nea, o teste de estabilização baseia-se na condição kpk k + ksk k ≤ ∆k . As propriedades de convergência de um algoritmo baseado nas condições enunciadas são apresentadas em Ferris, Lucidi e Roma [4, pp. 124]. 3 Métodos iterativos de Krylov A utilização de um método iterativo para calcular uma aproximação à direcção Newton origina o método de Newton inexacto. A condição de paragem do método iterativo deve basear-se no tamanho do vector resı́duo, dado por r = Hk p + gk em que Hk = H (xk ), gk = g (xk ) e p é a direcção Newton efectivamente calculada. Controlando o vector resı́duo, é possı́vel estabelecer um equilı́brio entre a exactidão com que o sistema Newton é resolvido e o número de operações realizadas em cada iteração. Seleccionámos para este artigo quatro métodos iterativos baseados em espaços de Krylov. 3.1 Método dos gradientes conjugados Um dos métodos mais conhecidos para resolver sistemas lineares é o método dos gradientes conjugados (veja-se Golub e Van Loan [6], Greenbaum [8], Hackbusch [11] e Kelley [13]). 78 A.I. Pereira, E.M. Fernandes / Investigação Operacional, 24 (2004) 73-88 Se p0 for uma aproximação inicial à solução do sistema Newton, a sucessão de aproximações é obtida através da fórmula recursiva pj+1 = pj + aj dj , onde o coeficiente aj é determinado por forma a minimizar a norma−Hk do erro (r̄j+1 = −Hk−1 gk − pj+1 ) aj = hrj , dj i , hdj , Hk dj i e a direcção dj+1 é actualizada por dj+1 = rj+1 + bj dj , sendo bj um coeficiente que se obtém resolvendo a equação hdj+1 , dj iHk = 0, ou seja bj = − hrj+1 , Hk dj i . hdj , Hk dj i Este método requer poucos recursos informáticos. Além do armazenamento da matriz H k , que é constante ao longo do processo iterativo, exige apenas o cálculo e o armazenamento de quatro vectores em cada iteração. O método dos gradientes conjugados é eficiente se a matriz for simétrica e definida positiva. Quando a matriz Hk é indefinida, o método pode falhar. No entanto, existem variantes do método dos gradientes conjugados que incorporam esquemas de segurança para identificar matrizes indefinidas (veja-se Dembo e Steihaug [1] e Gould, Lucidi, Roma e Toint [7]). 3.2 Processo de Lanczos O processo de Lanczos não exige que a matriz dos coeficientes do sistema seja definida positiva, sendo pois um bom ponto de partida para o desenvolvimento de métodos iterativos para a resolução de sistemas indefinidos. Com base numa matriz simétrica, o processo de Lanczos reduz a matriz dos coeficientes do sistema a uma matriz tridiagonal ou pentagonal (Greenbaum [8] e Paige e Saunders [21]). Consideremos uma aproximação à solução do sistema Newton (2) na forma p j = Vj zj onde Vj = [v1 v2 ...vj ] é uma matriz ortogonal de dimensão n × j. Os vectores vi , i = 1, ..., j, são obtidos pelo processo de Lanczos através da equação βi+1 vi+1 = Hk vi − αi vi − βi vi−1 , com i = 1, 2, ... em que v0 = 0, v1 = − kggkk k , β1 = kgk k, αi = viT Hk vi e βi+1 ≥ 0 deve ser escolhido de modo a que kvi+1 k = 1. Do problema min krj k2B , onde rj = gk + Hk Vj zj é o vector resı́duo da aproximação pj , z∈IRj conclui-se que um ponto de estacionaridade zj satisfaz o seguinte sistema linear VjT Hk BHk Vj zj = −VjT Hk Bgk que é equivalente a (2). Dependendo da escolha da matriz B, assim se obtêm sistemas equivalentes ao sistema inicial. Se B = Hk− , onde Hk− representa a inversa generalizada da matriz Hk , obtém-se o sistema tridiagonal Tj zj = β1 e1 , com pj = Vj zj , (9) onde Tj é uma matriz simétrica e tridiagonal de dimensão j, com Ti,i = αi , i = 1, ..., j e Ti+1,i = Ti,i+1 = βi+1 , i = 1, ..., j − 1. O vector e1 designa o primeiro vector da base canónica. A.I. Pereira, E.M. Fernandes / Investigação Operacional, 24 (2004) 73-88 79 Este sistema linear tem solução única se e só se Tj for não singular. Quando a matriz B é a identidade, obtém-se o sistema pentagonal 2 2 Tj + βj+1 ej eT (10) j zj = Tj β1 e1 , com pj = Vj zj . Neste caso, o número de condição da matriz do sistema (10) poderá ser maior do que o número de condição da matriz do sistema inicial (2), que pode ser um inconveniente quando Hk for mal condicionada [21, pp. 619]. 3.3 Método dos gradientes conjugados segundo Paige e Saunders Esta versão do método dos gradientes conjugados baseia-se no processo de Lanczos e foi proposta por Paige e Saunders [21] no âmbito da resolução de um sistema linear simétrico e definido positivo. Se a matriz Hk for definida positiva, a matriz Tj de (9) também o é, pois os seus valores próprios estão entre o maior e o menor valor próprio da matriz H k [21]. Quando a matriz Tj é definida positiva, o sistema (9) pode ser resolvido pela decomposição Cholesky, T j = Lj Dj LT j, em que Lj é uma matriz bidiagonal inferior com elementos unitários na diagonal principal e Dj uma matriz diagonal com elementos positivos. O método dos gradientes conjugados segundo Paige e Saunders é baseado na resolução do sistema (9) através da decomposição Cholesky da matriz Tj . Assim, a sucessão de aproximações à direcção Newton é obtida na forma pj = Vj zj onde o vector zj é calculado através do seguinte sistema L j Dj L T j zj = β 1 e1 . A actualização das matrizes factorizadas é simples uma vez que L j e Dj são respectivamente as submatrizes principais de Lj+1 e Dj+1 . O cálculo dos elementos lj+1 , da posição (j + 1, j) da matriz Lj+1 , e dj+1 da matriz Dj+1 , faz-se através das igualdades lj+1 = βj+1 e dj+1 = αj+1 − βj+1 lj+1 . dj Esta versão é matematicamente equivalente ao método dos gradientes conjugados, embora a abordagem ao nı́vel computacional seja ligeiramente diferente. Como facilmente se constata, esta versão requer que a matriz Hk seja definida positiva para que a decomposição Cholesky exista e assim garantir estabilidade numérica do processo iterativo [21, pp. 621]. 3.4 Método symmlq Esta apresentação do método symmlq (de symmetric LQ decomposition) tem como base o trabalho de Paige e Saunders [21]. Quando a matriz do sistema é indefinida, pode usar-se o método symmlq para resolver o sistema (2). Este método é baseado na resolução do sistema (9) através da decomposição LQ da matriz Tj . Seja Tj = L̄j Qj a decomposição ortogonal da matriz Tj , onde L̄j é uma matriz triangular inferior composta por três diagonais e Qj uma matriz ortogonal. 80 A.I. Pereira, E.M. Fernandes / Investigação Operacional, 24 (2004) 73-88 Substituindo Tj pela decomposição ortogonal, obtém-se o sistema L̄j Qj zj = β1 e1 com pj = Vj zj . (11) Também neste caso, a actualização da matriz L̄j se faz com relativa facilidade. A submatriz principal de ordem j de L̄j+1 é uma matriz Lj que difere de L̄j no q elemento ῑj da posição (j, j) . A relação entre ῑj e o correspondente elemento de Lj é ιj = 2 . ῑ2j + βj+1 Tal como o método dos gradientes conjugados, o método symmlq minimiza a norma−l 2 do erro mas num espaço diferente de Krylov [8]. Além disso, quando a matriz do sistema é definida positiva o método symmlq gera a mesma solução que o método dos gradientes conjugados. 3.5 Método minres O método minres (de minimum residual ) [8] e [21] pode ser aplicado a sistemas simétricos indefinidos e é baseado na resolução do sistema (10) e na decomposição L̄j Qj de Tj . A matriz dos coeficientes do sistema (10) é pentagonal e pelo menos semidefinida positiva. Utilizando a decomposição L̄j Qj de Tj , obtém-se T 2 T T Tj2 + βj+1 ej eT j = L̄j L̄j + (βj+1 ej ) (βj+1 ej ) = Lj Lj , com L̄j = Lj Dj , onde Dj = diag(1, ..., 1, cj ) e cj = ῑj /ιj . Assim, o sistema (10) é equivalente a Lj LT j zj = β1 L̄j Qj e1 com pj = Vj zj . 3.6 Critérios de terminação Não parece razoável terminar os métodos iterativos acima descritos para a resolução do sistema Newton, apenas quando a solução exacta for encontrada. Em vez disso, deve usar-se um critério de terminação. Este critério inclui condições que, sendo verificadas, garantem que a aproximação é adequada face ao progresso do algoritmo. Quando se introduz um critério de terminação para parar o processo iterativo antes de atingir a solução exacta do sistema Newton, diz-se que o processo foi truncado e o método de Newton resultante é conhecido por método de Newton truncado (NT). A aproximação à solução passa a ser denotada por pk , onde k designa o ı́ndice da iteração do método de Newton. Neste sentido, pk é a direcção utilizada para determinar uma nova aproximação ao ponto de estacionaridade da função f . Apresentam-se de seguida os três critérios implementados neste trabalho. Critério de Terminação 1 Um dos critérios de terminação limita os resı́duos, em termos relativos, por uma constante positiva previamente fixada, ξ, ou seja, as iterações terminam quando kgk + Hk pj k ≤ξ , kgk k A.I. Pereira, E.M. Fernandes / Investigação Operacional, 24 (2004) 73-88 81 sendo pj uma aproximação à direcção Newton. Se ξ for suficientemente pequeno, a aproximação pj está muito próxima da direcção Newton e a exactidão com que o sistema Newton é resolvido mantém-se constante ao longo do processo iterativo. Critério de Terminação 2 São bem conhecidas as propriedades de convergência do método de Newton na vizinhança da solução. Longe de um ponto de estacionaridade parece não haver justificação para calcular a solução exacta do sistema Newton. Assim, parece existir uma relação directa entre o trabalho necessário para calcular a direcção de procura e a proximidade a um ponto de estacionaridade. Um critério que tem em consideração esta relação, baseia-se na condição krj k 1 ≤ min , kgk kt , kgk k k para algum 0 < t ≤ 1 [1], para a paragem do processo iterativo. Desta escolha resulta que na proximidade de um ponto de estacionaridade a exactidão com que o sistema é resolvido é maior. Critério de Terminação 3 Uma aproximação à direcção Newton também pode ser avaliada através da grandeza do vector resı́duo. Lucidi e Roma [15] propõem a seguinte condição como critério de terminação no cálculo de uma aproximação à solução do sistema Newton 1 1 krj k ≤ τ min 1, kgk k max , , k + 1 e τkn onde τ > 0. Este critério tem caracterı́sticas, em parte, semelhantes ao segundo. O resı́duo mantém-se constante longe de um ponto de estacionaridade da função e tende para zero à medida que se avança no processo iterativo e kgk k → 0. 4 Estudo computacional Os resultados apresentados nesta secção foram obtidos com base num número limitado de testes e fornecem algumas indicações sobre o desempenho das diversas variantes apresentadas. O computador utilizado foi um Pentium II, Celeron a 466Mhz com 64Mb de RAM. A linguagem de programação foi o Fortran 90 sobre o sistema operativo MS-DOS. Foi usado um conjunto de dez problemas de optimização com e sem restrições nas variáveis, de pequena dimensão, que inclui problemas bem conhecidos e de difı́cil resolução. Os problemas com restrições nas variáveis foram transformados em problemas sem restrições através da função de penalidade l2 em que o parâmetro de penalidade foi mantido constante ao longo do processo iterativo. Os problemas sem restrições (S 201, S 256 e S 257) foram retirados de Schittkowski [23] e os com restrições foram retirados de Hock e Schittkowski [12] (HS 006 com parâmetro de penalidade 1 e 10, HS 007 com parâmetro de penalidade 1 e 100 e HS 027 com parâmetro de penalidade 1) e de Grippo, Lampariello e Lucidi [10] (função Maratos com o parâmetro de penalidade 1 e 100). As experiências computacionais realizadas tinham como objectivo identificar: 82 A.I. Pereira, E.M. Fernandes / Investigação Operacional, 24 (2004) 73-88 • uma técnica eficiente e robusta para calcular uma aproximação à direcção Newton através da combinação de um métodos iterativo, para a resolução do sistema Newton, com um dos critérios de terminação descritos na Subsecção 3.6; • um critério de procura unidimensional, monótono ou não monótono, para a globalização do algoritmo; • uma estratégia de procura, linear ou curvilı́nea, para gerar as aproximações x k à solução do problema. Para a resolução inexacta do sistema Newton foram usados os seguintes métodos: gradientes conjugados (gc), gradientes conjugados baseado no processo de Lanczos (gc-PS), symmlq e minres. Optou-se por apresentar um resumo dos resultados de modo a tornar mais fácil a sua análise e interpretação. As tabelas completas podem ser consultadas em Pereira [22]. Considerámos que um problema é resolvido quando se obtém uma aproximação a um ponto de estacionaridade em que kg (xk )k ≤ 10−6 , em menos de 100 iterações. A ordem entre as comparações efectuadas é a seguinte: comparação entre os métodos iterativos para a resolução do sistema Newton, comparação entre os critérios de procura unidimensional monótono e não monótono com estabilização do passo e comparação entre a procura linear e a curvilı́nea. 4.1 Comparação entre os métodos iterativos Para identificar o método iterativo e o critério de terminação mais adequados à resolução inexacta do sistema Newton, considerámos os seguintes valores: • Critério de Terminação 1 (C-1): ξ = 10−7 ; • Critério de Terminação 2 (C-2): t = 1 (indicado por Dembo e Steihaug [1]); • Critério de Terminação 3 (C-3): τ = 10−1 (indicado por Lucidi e Roma [15]). Cada método iterativo para a resolução do sistema Newton foi testado com os três critérios de terminação e com as estratégias de globalização monótona e não monótona com estabilização do passo. A Tabela 1 apresenta, de um total de vinte testes, o número de casos bem sucedidos. O número vinte surge da combinação dos dez problemas com as duas estratégias de globalização. Pode concluir-se que, em termos de robustez, os melhores critérios de terminação a usar nos métodos iterativos são o C-1 e o C-3. Para analisar a eficiência, considerou-se o número de iterações externas (iterações que o método de Newton truncado necessita para atingir uma aproximação a um ponto de estacionaridade com uma certa precisão) e o número total de iterações internas (iterações necessárias para a resolução do sistema Newton por um método iterativo com um determinado critério de A.I. Pereira, E.M. Fernandes / Investigação Operacional, 24 (2004) 73-88 83 Tabela 1: Métodos iterativos de Krylov (número de casos resolvidos). C-1 C-2 C-3 gc 20 13 20 gc-PS 20 13 20 symmlq 20 13 20 minres 20 16 20 Tabela 2: Métodos iterativos de Krylov (número de iterações). gc C-1 C-2 C-3 No Ext. No Int. 124 114 111 370 248 314 gc-PS No Int. 124 368 114 248 111 314 No Ext. symmlq No Int. 124 378 116 259 111 319 No Ext. minres No Int. 124 374 121 263 111 314 No Ext. terminação). Os resultados acumulados do número de iterações externas (N o Ext.) e internas (No Int.), na resolução comum de seis problemas, são dados na Tabela 2. Dos testes efectuados, verifica-se que com o Critério de Terminação 3 atinge-se a solução em menos iterações externas. O Critério de Terminação 2 é o que exige menos iterações internas. No entanto, face aos resultados da Tabela 1, podemos concluir que o critério C-3 é o mais adequado para a resolução inexacta do sistema Newton. 4.2 Critério monótono versus critério não monótono com estabilização Nas estratégias de globalização do algoritmo, definidas na Secção 2, considerámos os seguintes parâmetros η = 0.9 e γ = 10−4 . Também usámos na estratégia não monótona com estabilização do passo os valores sugeridos por Ferris, Lucidi e Roma [4]. Vejamos agora de que maneira a escolha da técnica de globalização influencia a eficiência e a robustez dos métodos NT. Relativamente à robustez, apenas os métodos gc, gc-PS e symmlq, quando combinados com o Critério de Terminação 2, possuem diferenças no número total de problemas resolvidos, que se traduzem apenas num caso. Na Tabela 3, são apresentados os resultados acumulados relativos ao número de iterações externas e cálculos da função (N o F.), com base em seis problemas que foram resolvidos simultaneamente por todas as variantes. Em termos do número de chamadas à função, para o cálculo do comprimento do passo, as Tabela 3: Métodos iterativos de Krylov (critério monótono). gc C-1 C-2 C-3 No Ext. No F. 62 56 55 372 171 191 gc-PS No F. 62 372 56 171 55 199 No Ext. symmlq No F. 62 372 58 196 55 197 No Ext. minres No F. 62 372 60 190 56 198 No Ext. 84 A.I. Pereira, E.M. Fernandes / Investigação Operacional, 24 (2004) 73-88 Tabela 4: Métodos iterativos de Krylov (critério não monótono com estabilização do passo). gc C-1 C-2 C-3 No Ext. No F. 62 58 56 9 9 9 gc-PS No F. 62 9 56 8 56 9 No Ext. symmlq No F. 62 9 58 8 56 9 No Ext. minres No F. 62 9 61 8 55 9 No Ext. Tabela 5: Resultados obtidos com procura curvilı́nea (número de casos resolvidos). C-1 C-2 C-3 gc-PS 20 19 20 symmlq 20 18 20 minres 20 19 20 melhores variantes do método NT são aquelas que utilizam o Critério de Terminação 2 e os métodos gc e gc-PS. A Tabela 4 contém o mesmo tipo de resultados, mas agora obtidos com o critério não monótono com estabilização. A variação no número de chamadas à função é pouco significativa. Comparando os resultados das Tabelas 3 e 4, verifica-se que o critério não monótono reduz de uma forma significativa o número de chamadas à função sem contudo aumentar o número de iterações externas. 4.3 Procura linear versus procura curvilı́nea Como referido na Subsecção 2.2, o método NT baseado numa procura curvilı́nea recorre ao cálculo de duas direcções: a de Newton e uma de curvatura negativa. Quando existe, a direcção de curvatura negativa pode ser calculada com base na matriz Tj do processo de Lanczos [15]. Neste contexto, apenas foram utilizados o método dos gradientes conjugados segundo Paige e Saunders, o symmlq e o minres. A Tabela 5 apresenta o número de casos resolvidos por cada um dos métodos. As implementações baseadas nos Critérios de Terminação 1 e 3 são as mais robustas. Comparando as Tabelas 1 e 5, verifica-se que as variantes do método NT baseadas na procura curvilı́nea resolveram maior ou igual número de casos do que as mesmas variantes baseadas numa procura linear. Dos cinco problemas resolvidos simultaneamente pelos três métodos resultaram os valores acumulados apresentados na Tabela 6, para a procura linear, e na Tabela 7, para a procura curvilı́nea. Verificou-se que, em alguns problemas, as variantes com procura curvilı́nea convergem para soluções diferentes das obtidas com a procura linear. Tal facto, deve-se ao uso da direcção de curvatura negativa. Analisando as Tabelas 6 e 7, conclui-se que a procura curvilı́nea exige um maior número de iterações externas e internas do que a procura linear. Separando os resultados por técnica de globalização, apresentam-se na Tabela 8 os resultados acumulados obtidos pela estratégia monótona e na Tabela 9 os obtidos pela estratégia não monótona com estabilização do passo. A.I. Pereira, E.M. Fernandes / Investigação Operacional, 24 (2004) 73-88 85 Tabela 6: Resultados obtidos com procura linear (número de iterações). No C-1 C-2 C-3 gc-PS Ext. No Int. 98 264 91 199 89 234 No symmlq Ext. No Int. 98 274 86 196 89 237 No minres Ext. No Int. 98 270 98 214 89 234 Tabela 7: Resultados obtidos com procura curvilı́nea (número de iterações). gc-PS Ext. No Int. 140 348 144 282 145 352 No C-1 C-2 C-3 symmlq Ext. No Int. 140 358 142 280 145 352 No minres Ext. No Int. 140 354 148 297 143 348 No Tabela 8: Resultados baseados numa procura curvilı́nea (critério monótono). gc-PS No Int. 73 180 78 153 76 183 No Ext. C-1 C-2 C-3 symmlq No Int. 73 185 77 152 76 183 No Ext. minres No Int. 73 183 76 153 75 181 No Ext. Tabela 9: Resultados baseados numa procura curvilı́nea (critério não monótono com estabilização do passo). gc-PS No Int. 67 168 66 129 69 169 No Ext. C-1 C-2 C-3 symmlq No Int. 67 173 65 128 69 169 No Ext. minres No Int. 67 171 72 144 68 167 No Ext. 86 A.I. Pereira, E.M. Fernandes / Investigação Operacional, 24 (2004) 73-88 É interessante verificar que a estratégia não monótona com estabilização do passo converge em menos iterações externas do que a estratégia monótona, quando implementadas no âmbito de uma procura curvilı́nea. 5 Conclusões Um método de Newton truncado surge quando se resolve o sistema Newton por um método iterativo e se usa um critério de terminação para truncar o processo iterativo e obter uma aproximação à direcção Newton. Neste artigo, foram implementados quatro métodos iterativos baseados em espaços de Krylov e três critérios diferentes de terminação destes processos iterativos. Para a globalização dos algoritmos, foram usados dois critérios de procura unidimensional, um monótono e outro não monótono que inclui uma condição de estabilização do passo. Além disso, a sucessão de aproximações à solução foi ainda gerada através de uma procura linear e de uma procura curvilı́nea. A combinação destes diferentes procedimentos gera as diferentes variantes do método de Newton para a resolução de um problema de optimização não linear sem restrições. As experiências computacionais realizadas com base nas variantes apresentadas servem para identificar a combinação mais eficiente e robusta dos procedimentos acima enunciados. Em termos de conclusões finais, e em relação ao número de iterações externas, os melhores resultados foram obtidos pelas variantes do método NT que se baseiam numa procura linear e que usam o Critério de Terminação 3. A escolha do critério de globalização, entre monótono e não monótono com estabilização do passo, é imediata uma vez que a implementação do critério não monótono traduz-se numa redução do número de chamadas à função, sem aumentar o número de iterações externas. Embora a procura curvilı́nea tenha resolvido no global um número maior de problemas, o número de iterações externas também aumentou. Um outro aspecto menos positivo da implementação deste tipo de procura reside na necessidade de calcular o menor valor próprio e o correspondente vector próprio [15] para determinar a direcção de curvatura negativa, quando a matriz dos coeficientes do sistema Newton não é semidefinida positiva. Durante os testes efectuados, poucas vezes houve necessidade de calcular a direcção de curvatura negativa. Para concluir e com base nos testes realizados, a variante do método de Newton truncado mais eficiente e robusta combina uma procura linear, os métodos symmlq ou minres com o Critério de Terminação 3 e uma estratégia não monótona com estabilização do passo. Agradecimento As autoras gostariam de agradecer ao revisor as sugestões enviadas que muito contribuı́ram para a clarificação dos temas analisados neste artigo. A.I. Pereira, E.M. Fernandes / Investigação Operacional, 24 (2004) 73-88 87 Referências [1] R. S. Dembo e T. Steihaug, Truncated-Newton Algorithms for Large-Scale Unconstrained Optimization, Mathematical Programming, Vol. 26, pp. 190-212, 1983. [2] J. E. Dennis Jr e R. B. Schnabel, Numerical Methods for Unconstrained Optimization and Nonlinear Equations, Prentice-Hall Inc., New Jersey, 1983. [3] E. M. G. P. Fernandes, Computação Numérica, 2a edição, Universidade do Minho, 1998. [4] M. C. Ferris, S. Lucidi e M. Roma, Nonmonotone Curvilinear Line Search Methods for Unconstrained Optimization, Computational Optimization and Applications, Vol. 6, pp. 117-136, 1996. [5] D. Goldfarb, Curvilinear Path Steplength Algorithms for Minimization which Use Directions of Negative Curvature, Mathematical Programming, Vol. 18, pp. 31-40, 1980. [6] G. H. Golub e C. F. Van Loan, Matrix Computations, The Johns Hopkins University Press, 1983. [7] N. I. M. Gould, S. Lucidi, M. Roma e P. L. Toint, Solving the Trust-Region Subproblem Using the Lanczos Method, SIAM Journal on Optimization, Vol. 9, No 2, pp. 504-525, 1999. [8] A. Greenbaum, Iterative Methods for Solving Linear Systems, SIAM, 1997. [9] L. Grippo, F. Lampariello e S. Lucidi, A Nonmonotone Line Search Technique for Newton’s Method, SIAM Journal on Numerical Analysis, Vol. 23, pp. 707-716, 1986. [10] L. Grippo, F. Lampariello e S. Lucidi, A Class of Nonmonotone Stabilization Methods in Unconstrained Optimization, Numerische Mathematik, Vol. 59, pp. 779-805, 1991. [11] W. Hackbusch, Iterative Solution of Large Sparse Systems of Equations, Applied Mathematical Sciences, 95, Springer-Verlag, 1994. [12] W. Hock e K. Schittkowski, Test Examples for Nonlinear Programming Codes, Springer-Verlag, 1981. [13] C. T. Kelley, Iterative Methods for Linear and Nonlinear Equations, Frontiers in Applied Mathematics, Vol. 16, SIAM, 1995. [14] C. T. Kelley, Iterative Methods for Optimization, Frontiers in Applied Mathematics, SIAM, 1999. [15] S. Lucidi e M. Roma, Numerical Experiences with New Truncated Newton Methods in Large Scale Uncontrained Optimization, Computational Optimization and Applications, Vol. 7. pp 71-87, 1997. [16] G. P. McCormick, A Modification of Armijo’s Step-size Rule for Negative Curvature, Mathematical Programming, Vol. 13, pp. 111-115, 1977. [17] J. J. Moré e D. C. Sorensen, On the Use of Directions of Negative Curvature in a Modified Newton Method, Mathematical Programming, Vol. 16, pp. 1-20, 1979. [18] S. G. Nash e A. Sofer, Linear and Nonlinear Programming, McGraw-Hill, 1996. [19] J. Nocedal e S. J. Wright, Numerical Optimization, Springer Series in Operations Research, 1999. [20] J. M. Ortega e W. C. Rheinboldt, Iterative Solution of Nonlinear Equations in Several Variables, Academic Press Inc., New York, 1970. [21] C. C. Paige e M. A. Saunders, Solution of Sparse Indefinite Systems of Linear Equations, SIAM Journal on Numerical Analysis, Vol. 12, No 4, pp. 617-629, 1975. 88 A.I. Pereira, E.M. Fernandes / Investigação Operacional, 24 (2004) 73-88 [22] A. I. P. N. Pereira, Estudo e Desempenho do Método de Newton Truncado em Optimização, Tese de mestrado, Universidade do Minho, 2000. [23] K. Schittkowski, More Test Examples for Nonlinear Programming Codes, Lectures Notes in Economics and Mathematical Systems, Springer-Verlag, 1987. [24] M. A. Wolfe, Numerical Methods for Unconstrained Optimization, Van Nostrand Reinholds Company, 1978. J.C. Mello et al. / Investigação Operacional, 24 (2004) 89-107 89 Suavização da Fronteira DEA: o Caso BCC Tridimensional João Carlos C. B. Soares de Mello Luiz Biondi Neto ∗ Eliane Gonçalves Gomes Marcos Pereira Estellita Lins † § Depto. de Engenharia de Produção – Universidade Federal Fluminense – Brasil [email protected] † ‡ ‡ ∗ Embrapa Monitoramento por Satélite – Brasil [email protected] Depto. de Eletrônica e Telecomunicações – Universidade do Estado do Rio de Janeiro – Brasil [email protected] § Programa de Engenharia de Produção – Universidade Federal do Rio de Janeiro – Brasil [email protected] Abstract The multipliers DEA model has multiple optimal solutions in the extreme-efficient DMUs. This fact is a drawback in several applications, particularly when we need to know the tradeoffs and in Cross-Evaluation. We propose a solution using the geometric representation of DEA envelope model. In this representation the frontier is piece-wise linear, meaning that for the extreme-efficient DMUs there is no tangent plan to the DEA frontier, as these DMUs are the cusps of the faces. The solution consists in changing the original frontier by another with continuous partial derivatives in every point and being as close as possible to the original one. We obtained a smoothed frontier with similar properties to the original, but with tangent plans at all points. The multipliers are obtained from the tangent plans equations. We present the general case theoretical development, which makes use of a non-metric topology based on the generalisation of the arch length, whose minimisation leads to a non-exactly soluble variational problem. Approximate solutions are obtained by the Ritz variational method. We present the particular case of the three-dimensional DEA BCC model, applied to the evaluation of Brazilian airlines companies. Resumo O modelo dos multiplicadores em DEA admite múltiplas soluções óptimas nas DMUs extremo-eficientes. Este facto acarreta dificuldades em várias aplicações, em especial quando há necessidade do conhecimento de razões de substituição (tradeoffs) e em Avaliação Cruzada. Neste artigo é proposta uma solução para este problema, com o uso da c 2004 Associação Portuguesa de Investigação Operacional 90 J.C. Mello et al. / Investigação Operacional, 24 (2004) 89-107 representação geométrica obtida do modelo do envelope. Nesta representação a fronteira é linear por partes, o que significa que nas DMUs extremo-eficientes não existe plano tangente à fronteira DEA, por serem estas DMUs os vértices das faces. Através da substituição da fronteira original por uma outra com derivadas contı́nuas em todos os pontos e o mais próximo possı́vel da original, é obtida uma fronteira com propriedades semelhantes à original, mas com planos tangentes em todos os pontos. Da equação destes planos calculam-se os coeficientes do modelo dos multiplicadores. É apresentado o desenvolvimento teórico para o caso geral, que usa uma topologia não métrica baseada na generalização do comprimento de arco, cuja minimização conduz a um problema variacional sem solução exacta. Soluções aproximadas são obtidas pelo método variacional de Ritz. É exemplificado o caso particular do modelo DEA BCC tridimensional, aplicado à avaliação de companhias aéreas brasileiras. Keywords: DEA, Variational Methods, Smoothed Frontier, Airlines Evaluation Title: A smoothed frontier for the 3-dimensional BCC-DEA model 1 Introdução A Análise de Envoltória de Dados (Data Envelopment Analysis – DEA) foi desenvolvida por Charnes, Cooper e Rhodes (1978) para determinar a eficiência de unidades productivas (Decision Making Units – DMUs), onde não seja predominante ou não se deseja considerar somente o aspecto financeiro. A metodologia DEA permite avaliar a eficiência de cada DMU considerando-se os recursos de que dispõe (inputs) e os resultados alcançados (outputs). Os modelos DEA clássicos, como modelos de programação matemática, apresentam sempre formulações duais. Existem, assim, duas formulações equivalentes para DEA (Cooper et al., 2000). De forma simplificada, pode-se dizer que uma das formulações (modelo do Envelope) define uma região viável de produção e trabalha com uma distância de cada DMU à fronteira desta região. A outra formulação (modelo dos Multiplicadores) trabalha com a razão de somas ponderadas de produtos e recursos, sendo a ponderação escolhida de forma mais favorável a cada DMU, respeitando-se determinadas condições. As duas formulações, como problemas duais que são, fornecem, evidentemente, a mesma eficiência para cada DMU. No entanto, além da eficiência, outras informações podem ser extraı́das dos modelos citados. O modelo do envelope fornece os coeficientes de ponderação de cada DMU eficiente (denominados λi ) na formação da DMU virtual que serve de benchmark para cada DMU ineficiente. Dada uma determinada orientação, esses coeficientes são determinados de forma única para cada DMU. É de especial interesse observar o que ocorre nas DMUs eficientes: elas são o seu próprio benchmark e, assim, o PPL do envelope fornece valor 1 para o λ referente a essa DMU e zero para todas os demais. Tem-se assim um PPL altamente degenerado. Já o modelo dos multiplicadores fornece os coeficientes de ponderação que cada DMU atribui a cada input e output. O facto de cada DMU atribuir valores diferentes a esses multiplicadores é a essência de DEA. Cada DMU tem a liberdade de valorizar aquilo em que é melhor, ignorando as variáveis em que o seu desempenho não é bom. Qualquer modelo DEA deve preservar, em menor ou maior grau, essa liberdade. J.C. Mello et al. / Investigação Operacional, 24 (2004) 89-107 91 Existem várias interpretações para os multiplicadores (também denominados “pesos”). A mais comum afirma que cada peso é um indicador da importância que uma DMU atribui à variável correspondente na determinação da sua eficiência. Essa interpretação só é válida, sem cálculos adicionais, se as variáveis forem previamente normalizadas. Economicamente, os multiplicadores podem ser interpretados de duas formas. A primeira interpretação é como componentes da razão de ponderação entre as variáveis (tradeoffs), ou seja, quanto uma DMU deve aumentar em um input quando outro diminui de uma unidade, ou quanto um aumento de um input deve provocar de aumento em um output. Uma interpretação ainda mais importante é que os multiplicadores são pesos sombra (shadow prices) normalizados (Coelli et al., 1998). Essa interpretação é bastante útil para determinar preços de quantidades sem valor de mercado, bastando para tal conhecer o custo efectivo de alguma das variáveis. Com esse conhecimento, os preços sombras normalizados transformam-se em preços não normalizados. Reinhard et al. (2000) usam essa abordagem para calcular o preço da poluição em um estudo sobre eficiência ambiental. Cabe ressaltar mais uma vez que para cada DMU existe um conjunto de pesos diferentes, o que significa que os preços calculados para certa DMU são válidos apenas para ela. O uso prático das interpretações dos multiplicadores esbarra em uma dificuldade inerente ao PPL do modelo dos multiplicadores. De facto, o teorema das folgas complementares também permite afirmar que os multiplicadores são os coeficientes da equação do hiperplano tangente à fronteira no ponto de projecção da DMU (Lins e Angulo-Meza, 2000). Ora, as DMUs eficientes (mais propriamente, as extremo-eficientes) formam os vértices da fronteira e nelas, por não existirem derivadas, não existe hiperplano tangente, embora exista uma infinidade de hiperplanos suporte. A Figura 1 ilustra essa situação para o caso de um input e um output. Tem-se, portanto, uma infinidade de multiplicadores para cada DMU extremo-eficiente, todos eles conduzindo à eficiência 1 para essas DMUs. Portanto, além de cada DMU ter liberdade para determinar os seus próprios pesos (o que é desejável), para as DMUs que devem servir de exemplo, como detentoras de boas práticas de gestão, é impossı́vel saber quais os pesos que elas efectivamente atribuı́ram a cada variável. A determinação da importância de cada input e output, ou o cálculo de pesos sombra, fica assim comprometido quando se lida com DMUs extremo-eficientes. A ausência de valores únicos para os pesos das DMUs extremo-eficientes tem ainda consequências de natureza diferente. Do ponto de vista teórico, impede o cálculo de derivadas direccionais em toda a fronteira. Do ponto de vista prático é um obstáculo ao uso de DEA como ferramenta auxiliar em problemas multicritério. Em certas situações é desejável em um problema multicritério atribuir pesos aos critério sem julgamentos de valor do decisor (por exemplo, quando vários decisores não chegam a acordo). DEA seria uma óptima ferramenta para isso, não fosse o facto de que não são conhecidos os pesos atribuı́dos por algumas DMUs. É óbvio que se o número de DMUs extremo-eficientes for pequeno em relação ao total do número de DMUs, pode-se ignorar os pesos atribuı́dos pelas extremo-eficientes e trabalhar apenas com os pesos atribuı́dos pelas demais DMUs (Lins et al., 2003; Soares de Mello et al., 2002 [27]). O problema da não unicidade dos multiplicadores para as DMUs extremo-eficientes foi várias vezes abordado, mas com soluções deficientes. Charnes et al. (1985) já haviam reconhecido esse problema, quando propuseram o uso arbitrário de um valor único para as derivadas através do cálculo de uma média ponderada, baseado nos baricentros das hipersuperfı́cies con- 92 J.C. Mello et al. / Investigação Operacional, 24 (2004) 89-107 O CCR C B E’’ E’’’ A E’ BCC E D I Figura 1: Representação das fronteiras BCC e CCR para o caso bidimensional. correntes. Esse método apresenta várias desvantagens. Entre elas a necessidade de conhecer as equações de todas as faces (o que exige um algoritmo de complexidade NP – Fukuda, 1993), a existência de variações bruscas devido à descontinuidade das derivadas e a impossibilidade de ser aplicado em DMUs que marquem o inı́cio da região Pareto ineficiente, ou que sejam adjacentes a uma face de dimensão incompleta (Olesen e Petersen, 1996). Talvez por todas essas desvantagens, o método não costuma ser usado. Muitos autores fazem análises que ignoram o problema ou, quando muito, após referencia-lo usam os valores da 1a solução óptima encontrada pelo algoritmo implementado (Thanassoulis, 1993; Chilingerian, 1995). Em algumas situações especı́ficas são possı́veis soluções parciais. Doyle e Green (1994) introduzem o conceito de formulações agressiva e benevolente no seu modelo de avaliação cruzada. O modelo de super-eficiência (Andersen e Petersen, 1993), apesar de não apresentar esse problema, apresenta, no entanto, outras desvantagens. Em primeiro lugar não limita as eficiências ao intervalo [0,1]. Além disso, elimina uma restrição diferente no PPL de cada DMU, o que significa dizer que a fronteira eficiente apresenta uma configuração diferente dependendo da DMU analisada. Segundo Rosen et al. (1998), os valores dos multiplicadores podem variar entre o valor calculado com base na derivada à esquerda e o calculado com base na derivada à direita. Esses autores afirmam ser impossı́vel contornar essa multiplicidade de valores e fazem a proposta de um quadro SIMPLEX modificado para calcular os limites de variação dos multiplicadores. A impossibilidade referida por Rosen et al. (1998) decorre da natureza linear por partes da fronteira DEA. Soares de Mello et al. (2001, 2002 [28]) mostram que é possı́vel contornar essa impossibilidade mediante a substituição da fronteira DEA original por outra que tenha propriedades semelhantes, mas continuamente diferenciável. Entre as propriedades mantidas, está a atribuição de eficiência unitárias às DMUs extremo-eficientes do modelo DEA original. A técnica, discutida em termos gerais e exemplificada para casos de duas dimensões, consiste em suavizar a fronteira DEA original, respeitando as propriedades básicas de DEA: convexidade, monotonicidade crescente dos inputs com os outputs, mesmas DMUs eficientes e atribuição de J.C. Mello et al. / Investigação Operacional, 24 (2004) 89-107 93 pesos diferentes por cada DMU. O principal problema dessa técnica é que, do modo como foi apresentada, servia apenas para casos bidimensionais, de pouca importância prática. Este artigo expande os resultados obtidos por Soares de Mello et al. (2001, 2002 [28]) ao estudar o caso de suavização da fronteira DEA para o modelo BCC tridimensional, fazendo uso do mesmo referencial teórico. O modelo que será aqui apresentado permite determinar valores únicos para os multiplicadores usados por cada DMU eficiente. Além disso, preserva a fronteira tão próximo quanto possı́vel da original e, evidentemente, mantém a liberdade de cada DMU determinar os seus próprios multiplicadores. Um conceito essencial aos desenvolvimentos teóricos é o de proximidade entre superfı́cies, que é um conceito topológico. Assim, no item 2 apresentam-se os aspectos topológicos do problema de suavização. No item 3 resumem-se os métodos variacionais usados. No item 4 é exposta a teoria geral de suavização, apresentando-se a formulação para o caso BCC tridimensional no item 5. Foi realizado um caso de estudo sobre eficiência de companhias aéreas brasileiras, que é mostrado no item 6. Seguem-se as conclusões (item 7) e as referências bibliográficas. 2 Topologia da Suavização As métricas funcionais clássicas lidam normalmente com distâncias entre os valores das funções. No entanto, no problema de suavização da fronteira DEA é de extrema importância a distância entre as derivadas, cujo tratamento pelas métricas funcionais clássicas é bastante complexo. É necessário estabelecer uma forma de determinar proximidade entre funções, que não seja uma das formas tradicionais e que seja útil no problema de suavização da fronteira DEA. No caso bidimensional, a região da fronteira que contém 2 DMUs eficientes consecutivas é um segmento de reta. Como o segmento de reta é o menor comprimento de arco entre dois pontos, qualquer outra curva que ligue os 2 pontos terá um comprimento de arco maior, tanto maior quanto mais se afastar do segmento. Além disso, quanto mais oscilar em torno do segmento (o que significa a existência de derivadas de valor bem diferente da inclinação da reta suporte do segmento) maior também será o comprimento de arco. Assim, definir se a fronteira suavizada está na vizinhança da fronteira original usando as diferenças entre seus comprimentos de arco significa considerar tanto o valor da função quanto o da sua derivada. Como a fronteira original é composta só de segmentos de reta não é necessário calcular a diferença de comprimento de arco entre a fronteira original e a fronteira suavizada; basta minimizar o comprimento de arco da fronteira suavizada que garante-se a proximidade dela com a original. Na Figura 2 observa-se que uma função h obtida de f por simetria em relação ao segmento de reta que une as duas DMUs eficientes, tem o mesmo comprimento de arco de f , ou seja, duas funções distintas com diferença nula de comprimento de arco. Portanto, o comprimento de arco não gera uma métrica, embora gere uma topologia não métrica (D’Ambrósio, 1977). Não se deve falar em distância entre duas fronteiras, mas apenas em proximidade, ou pertinência a uma vizinhança. Os mesmos argumentos podem ser generalizados para problemas de dimensão superior, 94 J.C. Mello et al. / Investigação Operacional, 24 (2004) 89-107 y y = f(x) b a 1+ df dx 2 dx = 2 b 1+ a dh dx dx y = h(x) a b x Figura 2: Invariância de comprimento de arco na simetria. substituindo-se segmento de reta por uma região do hiperplano e integral simples por integral múltiplo. O espaço gerado através dessa topologia tem a caracterı́stica de não ser Hausdorff separável (Hausdorff, 1949). Nesse tipo de espaço pode não ser possı́vel distinguir dois elementos pelas propriedades topológicas, o que obrigará a restrições adicionais ao problema de minimização do comprimento de arco, de forma a evitar soluções indesejáveis. 3 Métodos Variacionais Enquanto a programação matemática trata de calcular valores de variáveis independentes que optimizam uma função, o Cálculo das Variações visa determinar funções que optimizam uma “função de funções” ou funcional (Boyer, 1978; Elsgolts, 1980; Soares de Mello, 1987; Smith, 1998). Rx Formalizando o conceito anterior, considere-se I[y] = x12 F (x, y, y 0 )dx, onde y = f (x), f (x1 ) = a e f (x2 ) = b. O valor deste integral (que tem o nome de funcional) varia para cada função escolhida. Pode existir determinada função para a qual o integral assuma um valor mı́nimo. A busca da função que minimiza o funcional é feita por meio da resolução de uma equação diferencial ordinária. Essa equação é uma condição necessária para a existência de mı́nimo e pode ser obtida por dois métodos encontrados em, entre outros, Elsgoltz (1980) e Soares de Mello (1987). Aplicando-se um desses métodos, obtém-se a equação (I). Fy − d 0 dx Fy =0 (I) Essa equação, conhecida como Equação de Euler-Lagrange (Elsgolts, 1980), deve ser resolvida com as condições de contorno apropriadas. O resultado anterior pode ser generalizado para o caso de ter-se I[U (x 1 , x2 , ..., xn )] = J.C. Mello et al. / Investigação Operacional, 24 (2004) 89-107 R 95 ∂U ∂U ∂U R F (x1 ,x2 , ..., xn , U, ∂x1 , ∂x2 , ..., ∂x2 )dR, com as condições de contorno adequadas (geralmente prescrição do valor de U ou de suas derivadas na fronteira da região de integração). Os mesmos métodos, usados junto com o teorema de Gauss (Soares de Mello et al., 1987), conduzem à equação (II). Fu − n P i=1 ∂ ∂F ∂xi ( ∂Uxi ) =0 (II) Essa é a versão n-dimensional da Equação de Euler-Lagrange, que deve ser resolvida com as condições de contorno apropriadas. Devido à sua não linearidade, a equação de Euler-Lagrange só tem solução analı́tica em alguns casos particulares. Para resolver os problemas em que não é possı́vel determinar a solução exacta surgiram os chamados métodos directos ou métodos variacionais. De forma geral, esses métodos consistem em restringir o conjunto no qual procura-se a solução para o problema variacional: consideram-se candidatas à solução apenas alguns tipos especiais de funções, e não qualquer função com derivadas de segunda ordem. A solução encontrada será um ótimo no conjunto considerado embora não seja um ótimo global. Entre os métodos directos podem-se citar os métodos de Ritz (Smith, 1998), que para o particular de funcionais com funções de uma variável independente do tipo I [y (x)] = Rcaso x1 F (x, y, y0)dx, o funcional toma valores apenas para todas as funções do tipo (III), em vez x0 de assumir valores para quaisquer funções y (x). ym = n P αi wi (x) (III) i=1 As funções w1 (x), w2 (x), ..., wn (x) são previamente escolhidas e denominam-se funções aproximantes. Os αi são números reais e para cada sequência destes números obtém-se uma função ym (x). Essas funções devem satisfazer às mesmas condições de contorno (restrições) do problema variacional original. Substituindo-se y e y0 por ym e y0m no funcional I e calculando-se o integral, obtém-se uma função I (α1 , α2 , ..., αn ). Uma condição suficiente para a optimização dessa função é dada pelo sistema de equações (IV). ∂I ∂αi = 0, ∀αi , i = 1, 2, ..., n (IV) Calculados os αi obtém-se um ym (x) que é uma solução aproximante para o problema proposto. É possı́vel escolher wi como sendo potências de x, de tal forma que ym seja um polinómio. Em Soares de Mello (1987) são vistos vários exemplos de uso deste método com polinómios quadráticos e é mostrado que eles apresentam bons resultados na solução das equações de Laplace e Poisson. Os resultados aqui apresentados podem ser generalizados para dimensões superiores, bastando utilizar funções aproximantes com várias variáveis independentes e integrais múltiplos. 96 J.C. Mello et al. / Investigação Operacional, 24 (2004) 89-107 4 Formulação Geral do Modelo de Suavização Serão considerados modelos DEA com apenas 1 output, nos quais a suavização consiste em procurar uma função que minimize o comprimento de arco (ou sua generalização n-dimensional), que contenha as DMUs Pareto eficientes e que tenha derivadas parciais de segunda ordem em todos os pontos. Por facilidade computacional, pode-se minimizar o quadrado do comprimento de arco, sem alterar o resultado. Então, após determinar as DMUs extremo-eficientes no modelo DEA clássico, a suavização é obtida pelo problema variacional (V). R P ∂F 2 min L = 1+ dS ∂xi R i sa (V) o n ~ j = output X ~ j , ∀X ~ :X ~ é DMU Pareto eficiente ~j ∈ E = X F X ~ =X ~j ~ j ∃ ∂F X ∀X ∂xi Na última restrição de (V) é particularmente importante garantir a existência das derivadas nos pontos correspondentes às DMUs extremo-eficientes, por serem estes os pontos de descontinuı́dade das derivadas na fronteira original. Isto pode ser conseguido com a imposição de derivadas laterais iguais no caso de se usar aproximantes diferentes em cada região da fronteira, ou escolhendo um único aproximante para toda fronteira que tenha derivadas em todo seu domı́nio. Esse P é um problema de Cálculo das Variações, que tem como equação de ∂2F 2 = 0. Euler–Lagrange ∇ F = ∂x2 i i A última equação é a bem conhecida equação de Laplace n-dimensional (Farlow, 1993), que deve ser resolvida, se possı́vel, com as condições de contorno adequadas. Como a topologia usada não garante a separação de Hausdorff são necessárias condições de contorno adicionais para bem caracterizar o problema. Essas condições adicionais serão obtidas das propriedades de cada modelo DEA usado. 4.1 Modelo BCC com um output A existência de apenas um output permite escrever O = f (I). Para garantir que f é realmente uma função, seu gráfico não pode apresentar regiões verticais, ou seja, não haverá regiões Pareto ineficientes na fronteira suavizada. O facto do modelo ser BCC (Banker et al., 1984) significa que a fronteira é convexa o que, 2 como corolário do Teorema do Valor Médio (Swokowski, 1995), obriga a que ∂∂xF2 ≤ 0. Com i esta restrição adicional obtém-se o Teorema da Inexistência de Solução Óptima. Teorema da Inexistência de Solução Óptima O problema de suavização da fronteira com uma topologia baseada no comprimento de arco em um modelo BCC com um output ou não tem sentido, ou não tem solução. Prova: 1. As derivadas segundas são sempre nulas. Neste caso a fronteira é um hiperplano que J.C. Mello et al. / Investigação Operacional, 24 (2004) 89-107 97 contém todas as DMUs eficientes. A fronteira original já tem as caracterı́sticas de suavidade e o problema não tem sentido. 2. Em pelo menos um ponto uma das derivadas segundas é negativa. Como neste ponto as outras derivadas segundas são negativas ou nulas, a sua soma é negativa, o que contraria a equação de Laplace. P ∂2F P 2 −ai < 0, e ∇2 F = 0, ou seja, o problema = Simbolicamente, ∃ai 6= 0 : ∇2 F = ∂x2 é impossı́vel. i i i É necessário interpretar o que significa a impossibilidade do problema. O problema proposto é determinar a fronteira suave que melhor se aproxima da fronteira original, usando uma topologia baseada no comprimento de arco. Afirmar que o problema é impossı́vel significa dizer que não existe solução que “melhor se aproxima”. Dada uma fronteira suave, sempre será possı́vel determinar uma outra (e, portanto, uma infinidade) que seja uma melhor aproximação da original. O facto de não ter a melhor aproximação não impede que existam boas aproximações, que poderão ser calculadas usando métodos variacionais, em especial uma adaptação do método de Ritz (Smith, 1998). Esse método consiste em substituir a procura da melhor função de todas pela procura da melhor função de uma classe particular de funções chamadas aproximantes. O cálculo das funções aproximantes usa uma abordagem oposta à do método dos Elementos Finitos (Reddy, 1993), na qual existe uma superfı́cie desconhecida a ser aproximada por um conjunto de funções polinomiais, justapostas em pontos convenientes. Na suavização da fronteira DEA existem as funções polinomiais, justaposta em pontos previamente determinados pelos dados do problema, a serem substituı́das por uma função diferenciável desconhecida. 4.2 Modelo CCR com um output Neste modelo a condição de convexidade é substituı́da pela proporcionalidade: aumentos pro ~ porcionais nos inputs provocam um aumento proporcional no output. Ou seja, F k · X = ~ , o que significa que F tem que ser homogénea de grau 1 (Coelli et al., 1998). Como k·F X ~ · ∇F ~ = nF , ou, como n tal, deve respeitar o teorema de Euler para funções homogéneas: X ~ ~ = 1, X · ∇F = F . Esta restrição impede uma livre escolha de aproximantes que são, obrigatoriamente, funções homogéneas de 1o grau. Entretanto, este caso foge ao escopo deste artigo. 5 Suavização do Modelo DEA BCC Tridimensional (2 inputs e 1 output Em Soares de Mello et al. (2001) usou-se um aproximante polinomial de 2 o grau para cada região da fronteira (caso bidimensional), ou seja, havia uma correspondência biunı́voca entre aproximantes e faces Pareto eficientes. Isso foi possı́vel graças à determinação geométrica das faces eficientes. Em casos de maior dimensão, a determinação das faces exige um algoritmo de complexidade NP, o que pode inviabilizar o uso de aproximantes especı́ficos. 98 J.C. Mello et al. / Investigação Operacional, 24 (2004) 89-107 Tabela 1: Relação entre o número de DMUs extremo-eficientes e o grau do polinómio. Número de DMUs extremo-eficientes 3–5 6–9 10 – 14 15 – 20 21 – 27 ...... Grau do polinómio 2 3 4 5 6 ...... Mesmo em problemas em que a inviabilidade prática não ocorra, outras razões não recomendam o uso de aproximantes especı́ficos para cada face: • A dificuldade de garantir a continuidade da fronteira nas arestas, mesmo que esteja garantida a continuidade nos vértices. • A geometria da fronteira pode acarretar um número de restrições de igualdade maior que o número de variáveis de decisão, fornecidas por um polinómio de 2 o grau. • A existência de faces de dimensão não completa pode impedir o cálculo de derivadas nos vértices, o que impede a imposição de restrições de suavidade. Assim, adoptou-se um aproximante polinomial único para toda fronteira. Com isso, pode ocorrer a necessidade de trabalhar com funções polinomiais de grau mais elevado. Por exemplo, se houver a necessidade do uso de um polinómio de grau 4, ter-se-ia a equação (VI), na qual x e y são os inputs e Z é o output. Z = a + bx + cy + dx2 + exy + f y 2 + gx3 + hx2 y + ixy 2 + jy 3 + kx4 + lx3 y + mx2 y 2 + nxy 3 + oy 4 (VI) A Tabela 1 mostra a relação que deve existir entre o número de DMUs extremo-eficientes e o grau do polinómio para a escolha do aproximante em cada caso real, de modo que seja garantido que o número de restrições de igualdade seja inferior ao número de variáveis de decisão (coeficientes do polinómio). As restrições de igualdade garantem que a fronteira suavizada contenha todas as DMUs extremo-eficientes, embora possa não conter DMUs eficientes que não sejam “cantos” da fronteira. A exclusão dessas DMUs é para evitar inviabilidades no problema de suavização (Soares de Mello et al, 2001). A formulação (VII) representa o modelo DEA tridimensional suavizado. A função objectivo é dada pelo integral duplo, onde ymin , xmin , ymax e xmax representam o menor e o maior valor de cada input. A restrição (VII.1) garante que as DMUs extremo-eficientes estejam contidas na fronteira suavizada. As restrições (VII.2) e (VII.3) garantem a monotonicidade crescente da fronteira. A convexidade é garantida por (VII.4) e (VII.5). Estas seriam desnecessárias caso todas as DMUs fossem projectadas, no modelo DEA BCC clássico, em região Pareto eficiente; caso contrário, torna-se necessário garantir que nenhuma DMU seja projectada em região decrescente da fronteira. J.C. Mello et al. / Investigação Operacional, 24 (2004) 89-107 min ( xR max ymax R xmin ymin 1+ sa Z(xef i , yef i ) = Zef i ∂Z ∂x (xmax , ymax ) ≥ 0 ∂Z ∂y (xmax , ymax ) ≥ 0 ∂2Z ≤ 0, ∀x, y ∂x2 ∂2Z ≤ 0, ∀x, y ∂y 2 ∂Z 2 ∂x + ∂Z ∂y 2 dydx 99 ) (VII.1) (VII.2) (VII.3) (VII.4) (VII.5) (VII) Dependendo do grau do polinómio pode ser impossı́vel determinar os valores mais gerais possı́veis dos coeficientes que garantam o cumprimento das restrições (VII.4) e (VII.5) para todos os valores de x e y. É possı́vel garantir o cumprimento dessas restrições impondo-se uma restrição ainda mais forte, a saber, todos os termos do polinómio devem ser convexos. Isto é garantido na equação (VIII.4), que substitui as equações (VII.4) e (VII.5). O modelo (VIII) representa, assim, a formulação geral do modelo DEA BCC tridimensional suavizado, com garantia de convexidade. ) ( 2 xR max ymax R 2 + ∂Z dydx 1 + ∂Z min ∂x ∂y xmin ymin sa Z(xef i , yef i ) = Zef i ∂Z ∂x (xmax , ymax ) ≥ 0 ∂Z ∂y (xmax , ymax ) ≥ 0 d, f, g, h, i, ... ≤ 0 (VIII.1) (VIII.2) (VIII.3) (VIII.4) (VIII) Observe-se que, uma vez que a função Z é polinomial, o integral duplo presente na função objectivo pode ser calculado como função quadrática dos coeficientes polinomiais. Dado que as restrições são lineares, o problema de suavização é um problema de programação quadrática. Esse problema foi resolvido em tempo desprezável pelos softwares mais comuns. Em alguns casos de pequena dimensão foi resolvido manualmente em tempo relativamente curto. 6 Caso de Estudo: Companhias Aéreas Brasileiras O modelo apresentado no item 5 será aplicado a um caso de estudo retirado de um trabalho sobre avaliação de eficiência de companhias aéreas brasileiras (Gomes et al., 2001), que apresenta três modelos de cálculo de eficiência. Um desses modelos, chamado de Eficiência de Vendas, usa dois inputs e um output, a saber, Pessoal que trabalha em vendas, Número de Passageiros.Km oferecido durante o ano e Número de Passageiros.Km pago durante o ano, respectivamente. As unidades avaliadas são as companhias aéreas regulares brasileiras, nos anos de 1998, 1999 e 2000. Considera-se que uma companhia em um determinado ano é uma DMU diferente da mesma companhia em outro ano. Além disso, companhias que formam grupos económicos foram consideradas como DMUs individuais e uma DMU representando o grupo, contemplando um total de 70 DMUs. Por exemplo, as companhias Nordeste, Rio Sul e Varig compõe o Grupo Varig, gerando 4 DMUs em cada um dos perı́odos analisados. 100 J.C. Mello et al. / Investigação Operacional, 24 (2004) 89-107 Tabela 2: Valores de inputs e output para as DMUs extremo-eficientes. DMUs extremo-eficientes Grupo VARIG 1998 ITAPEMIRIM 1998 PASSAREDO 1998 TAF 2000 VARIG 1998 VASP 1998 Pessoal de vendas 3814 2 29 9 3387 427 Pax.Km oferecido 45361622 1773 786974 2254 40690342 17240645 Pax.Km pago 29139588 732 530792 1289 26751161 9794282 Tabela 3: Valores mı́nimos e máximos de cada input. Mı́nimo Máximo DMU Pessoal de Vendas ITAPEMIRIM 2 REGIONAL 1998 Grupo 3814 VARIG 1998 DMU Pax.Km oferecido ITAPEMIRIM 1773 REGIONAL 1998 Grupo 45361622 VARIG 1998 A Tabela 2 traz os valores de inputs e output para as DMUs extremo-eficientes, que foram determinadas com o modelo DEA BCC clássico. Foram desconsideradas as companhias que apresentaram resultado distorcido por fazerem as vendas através de terceiros, ou seja, valor zero para o input Pessoal de vendas. Como este é um modelo tridimensional com 6 DMUs extremo-eficientes, de acordo com a Tabela 1, a função aproximante é um polinómio de 3o grau com duas variáveis independentes. Uma vez conhecidos os resultados do modelo DEA BCC clássico e com o uso dos valores das Tabelas 2 e 3, é possı́vel formular o problema de suavização, que é apresentado em (IX). Comparando-se com a formulação geral (VIII), x representa o input Quantidade de pessoal de vendas, y o input Passageiros.Km oferecido, z é o output Passageiros.Km pago. J.C. Mello et al. / Investigação Operacional, 24 (2004) 89-107 101 Tabela 4: Valor das variáveis de decisão do problema de suavização para o caso de estudo. Variável de decisão a b c d e f g h i j min 3814 R 45361622 R 2 sa 1773 h b + 2dx + ey + 3gx2 + 2hyx + iy 2 Valor -536,629000 32,561460 0,678490 0,000000 0,000164 -1,2·10−8 0,000000 -2,2·10−8 0,000000 0,000000 2 + c + ex + 2f y + hx2 + 2ixy 2 2 i dy dx a b c 2, 91 · 107 d 732 e 5, 31 · 105 = A· f 129 g 2, 68 · 107 h 9, 79 · 106 i j d, f, g, h, i, j ≤ 0 b + 7628d + 4, 54 · 107 e + 4, 36 · 107 g + 3, 46 · 1011 h + 2, 06 · 1015 i ≤ 0 c + 3814e + 9, 07 · 107 f + 1, 45 · 107 h + 1, 57 · 1019 i ≤ 0 onde 38144, 54 · 107 1, 45 · 107 1, 73 · 1011 2, 06 · 1015 5, 55 · 1010 6, 60 · 1014 7, 85 · 1018 9, 33 · 1022 2, 91 · 107 2177343, 55 · 103 3, 14 · 106 87, 09 · 103 6, 29 · 106 5, 57 · 109 7, 32 · 102 297, 87 · 105 8412, 28 · 107 6, 19 · 1011 2, 44 · 104 6, 62 · 108 1, 80 · 1013 4, 87 · 1017 5, 31 · 105 92254812, 03 · 104 5, 08 · 106 7291, 83 · 105 4, 57 · 107 1, 15 · 1010 1, 29 · 103 33874, 07 · 107 1, 15 · 107 1, 38 · 1011 1, 66 · 1015 3, 89 · 1010 4, 67 · 1014 5, 61 · 1018 6, 74 · 1022 2, 68 · 107 4271, 72 · 107 1, 82 · 105 7, 36 · 109 2, 97 · 1014 7, 79 · 107 3, 14 · 1012 1, 27 · 1017 5, 12 · 1021 9, 79 · 106 =A (IX) Esse, como qualquer problema de suavização em DEA, é um problema de programação quadrática, cuja solução fornece os valores dos coeficientes do polinómio de 3 o grau que representa a fronteira suavizada. Esses valores são apresentados na Tabela 4. Deve-se referir que, para obter explicitamente o problema de programação quadrática, foi necessário calcular o integral duplo em um software de computação algébrica. O gráfico da fronteira suavizada, válido na região (xmin , ymin ), (xmax , ymax ), é apresentado na Figura 3. 102 J.C. Mello et al. / Investigação Operacional, 24 (2004) 89-107 Figura 3: Fronteira suavizada para o caso de estudo. Com as derivadas da função que representa a fronteira suavizada é possı́vel calcular um valor único para os pesos dos inputs e do output. Com esses valores, pode-se computar a contribuição de cada input na formação do input virtual de cada DMU eficiente. Os pesos são calculados a partir da formulação clássica dos multiplicadores (modelo (X)), na qual x e y representam os inputs e z o output. max Ef f = uz0 − u∗ sa vx0 x0 + vy0 y0 = 1 vxk xk + vyk yk + uk zk − u∗k ≤ 0, ∀k u ≥ 0, vx ≥ 0, vy ≥ 0 e u∗ irrestrito (X) Ao usar a interpretação geométrica dos multiplicadores (Lins e Angulo-Meza, 2000) e a equação do plano tangente a uma superfı́cie, obtêm-se as equações (XI) e (XII), que fornecem os valores únicos para os multiplicadores. vxk = ∂Z (xk ,yk ) ∂x ∂Z xk ∂x (xk ,yk )+yk ∂Z (xk ,yk ) ∂y (XI) vyk = ∂Z (xk ,yk ) ∂y ∂Z xk ∂x (xk ,yk )+yk ∂Z (xk ,yk ) ∂y (XII) Das equações (XI) e (XII) obtém-se as participações de cada input na formação do input virtual, apresentadas na Tabela 5. Os resultados da Tabela 5 mostram que a maioria das DMUs atinge seu ı́ndice de eficiência atribuindo maior “importância” ao input Passageiros.Km oferecido. Como o numerador do modelo DEA aparece Passageiros.Km pago, os resultados aqui apresentados mostram que o J.C. Mello et al. / Investigação Operacional, 24 (2004) 89-107 103 Tabela 5: Participações dos inputs na formação do input virtual. DMUs extremo-eficientes Grupo VARIG 1998 ITAPEMIRIM 1998 PASSAREDO 1998 TAF 2000 VARIG 1998 VASP 1998 Participação de Pessoal de Vendas 0,000 0,052 0,009 0,162 0,117 0,131 Participação de Pax.Km oferecido 1,000 0,948 0,991 0,838 0,883 0,869 Tabela 6: Multiplicadores de cada variável de input para cada DMU. DMUs extremo-eficientes Grupo VARIG 1998 ITAPEMIRIM 1998 PASSAREDO 1998 TAF 2000 VARIG 1998 VASP 1998 Peso do input Pessoal de Vendas (A) 6,1·10−20 2,6·10−2 3,0·10−4 1,8·10−2 3,4·10−5 3,1·10−4 Peso do input Pax.Km oferecido (B) 2,2·10−8 5,3·10−4 1,3·10−6 3,7·10−4 2,2·10−8 5,0·10−8 A B 0,0 48,4 241,5 48,4 1587,1 6087,6 load factor (factor de ocupação) é uma legı́tima preocupação das companhias que operam na escala óptima. Além da importância de cada input, a Tabela 6 mostra os multiplicadores de cada variável para cada DMU. Como já mencionado, eles representam preços sombra normalizados. Se for conhecido o custo real de um dos inputs, o custo do outro pode ser determinado pela razão entre os preços sombra. A coluna que apresenta o quociente entre os multiplicadores (A/B) permite a obtenção dessa informação de forma rápida. Observa-se que o custo sombra unitário do input “Pessoal de vendas” é bem maior que o custo sombra do input “Passageiro.Km oferecido”. Essa conclusão só não pode ser aplicada ao Grupo VARIG 1998, já que essa DMU marca o inı́cio da região Pareto ineficiente. Informações desse tipo são importantes não somente para que cada DMU analise a sua estrutura de preços e práticas gerenciais, mas também para que órgãos reguladores investiguem possı́veis casos de dumping ou, pelo contrário, de preços abusivos. 7 Conclusões Foi apresentada neste artigo uma metodologia para resolver o problema de determinação de pesos únicos em modelos DEA. A metodologia proposta tem como base a substituição da fronteira DEA original (linear por partes) por outra suavizada (com derivadas contı́nuas). 104 J.C. Mello et al. / Investigação Operacional, 24 (2004) 89-107 Em relação às propostas de outros autores para tratar do mesmo problema, a suavização da fronteira apresentou as seguintes vantagens: • Fornece um valor único para os multiplicadores de cada DMU, em vez de um intervalo de variação, como em Rosen et al. (1998). • Embora para cada DMU o vector de multiplicadores passe a ser unicamente determinado, cada DMU tem os multiplicadores mais apropriados às suas caracterı́sticas. Essa é uma propriedade ausente de outro modelo que tenta resolver o mesmo problema: a avaliação cruzada de Doyle e Green (1994). Esse método é equivalente à adopção de pesos rı́gidos para todas as DMUs (Anderson et al., 2002), o que contraria um preceito básico de DEA. A metodologia de suavização, ao preservar a liberdade de cada DMU escolher os seu vector de multiplicadores, mantém-se fiel aos preceitos básicos de DEA. • Fornece uma variação gradual dos multiplicadores, sem as descontinuidades do método proposto por Charnes et al. (1985). Nesse método, ao percorrer-se a fronteira encontramse variações grandes nos multiplicadores para variações infinitesimais dos vectores de outputs e inputs, o que é uma situação pouco natural. • Ao contrário do método de Charnes et al. (1985), não necessita da determinação de todas as faces adjacentes a cada DMU extremo-eficiente. Assim, após conhecer as DMUs extremo-eficientes, em vez de um problema NP, basta resolver um simples problema de programação quadrática. Ainda em comparação com o método de Charnes et al. (1985), para a suavização não é problemática a existência de faces de dimensão não completa. Essas faces, que surgem com frequência (Gonzalez-Araya, 2002) impedem o uso de métodos baseados em propriedades geométricas. Em relação ao modelo de super-eficiência, a maior vantagem é existir uma única fronteira eficiente, independentemente da DMU que se esteja a analisar. Em relação aos métodos de suavização correntes em programação não linear (Koohyun e Yong-Sik, 1998; Gal, 1992), como o método da perturbação infinitesimal, o método aqui proposto apresentou as seguintes vantagens (Soares de Mello, 2002): • Interfere o menos possı́vel com o ponto de descontinuidade das derivadas, pela própria natureza das restrições do problema de programação quadrática. Refira-se que essa propriedade, irrelevante em programação matemática, é de extrema importância em DEA. • Não necessita das equações da região a ser suavizada, apenas das coordenadas dos pontos de descontinuidade das derivadas, o que é conseguido devido à natureza linear por partes da fronteira original. • É baseado numa formulação topológica precisa, que permite definir com rigor o conceito de proximidade entre a fronteira original e a suavizada. O modelo de suavização apresenta cálculos relativamente simples para problemas de pequena dimensão (número de inputs, outputs e DMUs extremo-eficientes). O aumento da dimensão J.C. Mello et al. / Investigação Operacional, 24 (2004) 89-107 105 leva a um aumento da do número de cálculos algébricos. Como as várias etapas dos cálculos são realizadas em programas diferentes, e a etapa mais demorada é a transposição de dados entre eles, torna-se evidente a vantagem de desenvolver um software especı́fico para o problema da suavização. O caso investigado apresentou valores dı́spares para os vários coeficientes do polinómio de suavização. Tal facto deveu-se à grande amplitude de variação dos valores dos inputs, bem como a escala extremamente diferente em que eram medidos. Uma prévia normalização poderia reduzir essa disparidade. Fazem-se necessários desenvolvimentos para o caso de múltiplos inputs e outputs, e para modelos com retornos constantes de escala (CCR). Esses modelos apresentam a dificuldade adicional da invariância dos retornos de escala, o que leva a funções homogéneas de grau zero e impede o uso de aproximantes polinomiais. Por fim, deve ser mencionado que o modelo de suavização permite eliminar dois dos grandes problemas em DEA: regiões Pareto ineficientes e faces de dimensão não completa. O primeiro devido à existência de uma restrição de monotonicidade, e o segundo pelo facto de a fronteira ser descrita por uma única equação polinomial. 8 Referências Bibliográficas [1] Andersen, P., Petersen, N.C., A procedure for ranking efficient units in data envelopment analysis, Management Science 39 (10) (1993) 1261-1264. [2] Anderson, T.R., Hollingsworth, K., Inman, L., The Fixed Weighting Nature of A Cross-Evaluation Model, Journal of Productivity Analysis 17 (3) (2002) 249-255. [3] Banker, R.D., Charnes, A., Cooper, W.W., Some models for estimating technical scale inefficiencies in Data Envelopment Analysis, Management Science 30 (9) (1984) 1078-1092. [4] Boyer, C.B., História da Matemática, Edgard Blücher Ltda., São Paulo (1978). [5] Charnes, A., Cooper, W.W., Golany, B., Seiford, L., Stutz, J., Foundations of data envelopment analysis for Pareto-Koopmans efficient empirical production functions, Journal of Econometrics 30 (1985) 91-107. [6] Charnes, A., Cooper, W.W., Rhodes, E., Measuring the Efficiency of Decision-Making Units, European Journal of Operational Research 2 (1978) 429-444. [7] Chilingerian, J.A., Evaluating physician efficiency in hospitals: a multivariate analysis of best practices, European Journal of Operational Research 80 (1995) 548-574. [8] Coelli, T., Rao, D.S.P., Battese, G.E., An Introduction to Efficiency and Productivity Analysis, Kluwer Academic Publishers (1998). [9] Cooper, W.W., Seiford, L.M., Tone, K., Data Envelopment Analysis: A Comprehensive Text with Models, Applications, References and DEA-Solver Software. Kluwer Academic Publishers, USA (2000). [10] D’Ambrósio, U., Métodos da Topologia - Introdução e Aplicações, Livros Técnicos e Cientı́ficos Editora S.A, Rio de Janeiro (1977). [11] Doyle, J., Green, R., Efficiency and cross-efficiency in DEA: Derivations, meanings and uses, Journal of the Operational Research Society 45 (5) (1994) 567-578. [12] Elsgolts, L., Differential Equations and the Calculus of Variations, Mir Publishers, Moscow (1980). 106 J.C. Mello et al. / Investigação Operacional, 24 (2004) 89-107 [13] Farlow, S.J., Partial Differential Equations for Scientists and Engineers, Dover Books on Advanced Mathematics, Dover Publications (1993). [14] Fukuda, K., cdd.c: C Implementation of the Double Description method for computing all vertices and extremal rays of a convex polyhedron given a system of linear inequalities, Department of Mathematics, Swiss Federal Institute of Technology, Lausanne, Switzerland (1993). [15] Gal, T., Weakly redundant constraints and their impact on postoptimal analyses in LP, European Journal of Operational Research 60 (3) (1992) 315-326. [16] Gomes, E.G., Soares de Mello, J.C.C.B., Serapião, B.P., Lins, M.P.E., Biondi, L.N., Avaliação de Eficiência de Companhias Aéreas Brasileiras: Uma Abordagem por Análise de Envoltória de Dados. In: Setti, J.R.A., Lima Júnior, O.F. (Eds.), Panorama Nacional da Pesquisa em Transportes 2001, Campinas, SP, Novembro 2 (2001) 125-133. [17] Gonzalez-Araya, M.C., Uma metodologia para projetar DMUS em facets eficientes de maior dimensão, XXXIV Simpósio Brasileiro de Pesquisa Operacional – SBPO, Rio de Janeiro, RJ, Brasil, Outubro (2002). [18] Hausdorff, F., Grundzüge der Mengenlehre, Chelsea Publishing Company, New York (1949). [19] Koohyun, P., Yong-Sik, S., Iterative bundle-based decomposition for large-scale nonseparable convex optimization, European Journal of Operational Research 111 (3) (1998) 598-616. [20] Lins, M.P.E., Angulo-Meza, L., Análise Envoltória de Dados e perspectivas de integração no ambiente de Apoio à Decisão, Editora da COPPE/UFRJ, Rio de Janeiro, Brasil (2000). [21] Lins, M.P.E., Gomes, E.G., Soares de Mello, J.C.C.B., Soares de Mello, A.J.R., Olympic ranking based on a Zero Sum Gains DEA model, European Journal of Operational Research 148 (2) (2003) 85-95. [22] Olesen, O.P., Petersen, N.C., Indicators of III conditioned data sets and model misspecification in data envelopment analysis: and extended facet approach, Management Science 42 (2) (1996) 205-219. [23] Reddy, J.N., Introduction to the Finite Element Method, McGraw-Hill (1993). [24] Reinhard, S., Lovell, C.A.K., Thijssen, G.J., Environmental efficiency with multiple environmentally detrimental variables estimated with SFA and DEA, European Journal of Operational Research 121 (2000) 287-303. [25] Rosen, D., Schaffnit, C., Paradi, J.C., Marginal rates and two dimensional level curves in DEA, Journal of Productivity Analysis 9 (3) (1998) 205-232. [26] Smith, D.R., Variational Methods in Optimization, Dover Books on Mathematics, Dover Publications (1998). [27] Soares de Mello, J.C.C.B., Gomes, E.G., Biondi, L.N., Modelo DEA com restrições aos pesos para estabelecer uma classificação olı́mpica, Anais do XXV Congresso Nacional de Matemática Aplicada e Computacional, Nova Friburgo, Rio de Janeiro, Brasil, Setembro (2002). [28] Soares de Mello, J.C.C.B., Lins, M.P.E., Gomes, E.G., Construction of a smoothed DEA frontier, Pesquisa Operacional (2002) (a publicar). [29] Soares de Mello, J.C.C.B., Lins, M.P.E., Gomes, E.G., Estimativa de planos tangentes à fronteira DEA em DMUs extremo-eficientes, Anais do XXXIII Simpósio Brasileiro de Pesquisa Operacional – SBPO, Campos do Jordão, SP, Brasil, Novembro (2001). [30] Soares de Mello, J.C.C.B., Métodos variacionais em condução de calor, Tese de Mestrado, Coordenação de Pós-Graduação em Matemática, Universidade Federal Fluminense, Niterói, Brasil (1987). J.C. Mello et al. / Investigação Operacional, 24 (2004) 89-107 107 [31] Soares de Mello, J.C.C.B., Suavização da fronteira DEA com o uso de métodos variacionais, Tese de Doutorado, Programa de Engenharia de Produção, Universidade Federal do Rio de Janeiro, Brasil (2002) [32] Swokowski, E.W., Cálculo com Geometria Analı́tica, Makron Books do Brasil Editora Ltda., Rio de Janeiro (1995). [33] Thanassoulis, E., A comparison of regression analysis and data envelopment analysis as alternative methods of performance assessment, Journal of the Operational Research Society 44 (11) (1993) 1129-1144. P. Couto / Investigação Operacional, 24 (2004) 109-137 109 Análise factorial aplicada a métricas da paisagem definidas em FRAGSTATS Paula Couto ∗ ∗ Grupo de Análise de Sistemas Ambientais (GASA) – Universidade Nova de Lisboa [email protected] Abstract A programme for spatial analysis based on a grid of pixels (FRAGSTATS 3.0) was used and the results of the analysis of 50 maps of land occupation using this programme were presented. 33 metrics of the landscape’s structure were used and the properties of the metrics for various landscapes (maps of land occupation in Continental Portugal) were investigated. The metrics of the landscape’s structure describe the size and form of the landscapes, the abundance of each type of spot and the spatial distribution of similar or different spots. To overcome the ambiguity of individual metrics and behavioural peculiarities, a varied factorial approach was adopted to describe and compare landscape structures. An analysis of main components for the 33 metrics and 50 landscapes was carried out. The first five factors explain 91.2% of the variation. These factors can be interpreted as an average of compaction of the spot, image texture (distribution of the pixels and proximity), landscape area, number of classes, area-perimeter relation (fractional measures). Resumo Um programa de análise espacial baseado numa grelha de pixeis (FRAGSTATS 3.0) foi usado e os resultados da análise de 50 mapas de ocupação do solo usando esse programa são apresentados. Foram usadas 33 métricas da estrutura da paisagem e investigadas as propriedades das métricas para diversas paisagens (mapas de ocupação de solo de Portugal Continental). As métricas da estrutura da paisagem descrevem o tamanho e forma das paisagens, a abundância de cada tipo de mancha e a distribuição espacial de manchas similares ou dissimilares. Para ultrapassar a ambiguidade de métricas individuais e peculiaridades do seu comportamento, foi adoptada uma aproximação factorial multivariada para descrever e comparar estruturas da paisagem. Foi executada uma análise de componentes principais para as 33 métricas e 50 paisagens. Os primeiros cinco factores explicam 91.2% da variação. Estes factores podem ser interpretados como média da compactação da mancha, textura da imagem (distribuição dos pixeis e adjacência), área da paisagem, número de classes, relação área - perı́metro (medidas fractais). c 2004 Associação Portuguesa de Investigação Operacional 110 P. Couto / Investigação Operacional, 24 (2004) 109-137 Keywords: Landscape structure, Factorial approach, Fragstats Title: Factorial Analysis applied to landscape metrics defined in FRAGSTATS 1 Introdução Uma variedade de questões ecológicas requerem presentemente o estudo de largas regiões e a compreensão da heterogeneidade espacial. A investigação na análise de padrões espaciais e a sua comparação pode melhorar a habilidade para simular fenómenos em grande escala, caracterizar modelos espaciais e gerir recursos naturais ao nı́vel da paisagem (Turner et al. 1989(a)). Embora existam muitas interpretações diferentes do termo “paisagem” todas as definições de paisagem incluem invariavelmente uma área contendo um mosaico de manchas ou elementos da paisagem que interagem e são relevantes para o fenómeno em estudo. O padrão detectado em qualquer mosaico ecológico está relacionado com ambos, extensão e grão (Forman e Godron 1986, Turner et al. 1989(b), Wiens 1989). A extensão é a área global sujeita a investigação ou a área incluı́da no interior da fronteira da paisagem e grão é o tamanho das unidades individuais de observação. A ecologia da paisagem envolve o estudo de padrões da paisagem, a interacção entre manchas no interior do mosaico da paisagem, e a forma como padrões e interacções mudam no tempo. Considera ainda o desenvolvimento e dinâmica da heterogeneidade espacial e os seus efeitos nos processos ecológicos. A ecologia da paisagem pode ser analisada considerando três caracterı́sticas da paisagem (Forman e Godron 1986): Estrutura – trata-se das relações espaciais entre ecosistemas distintos ou elementos presentes; mais especificamente, a distribuição de energia, materiais, e espécies, em relação a tamanhos, formas e configurações dos ecosistemas. Função – corresponde a interacções entre elementos espaciais, ou seja, as transferências de energia, materiais e espécies ao longo das componentes dos ecosistemas. Mudança – trata-se da alteração na estrutura e função do mosaico ecológico no tempo. A estrutura da paisagem e a função da paisagem estão intimamente relacionados porque, ao longo do tempo, um influencia o outro (Forman e Godron 1981, Forman e Godron 1986, Turner et al. 1989(b)). Em particular, a função da paisagem é influenciada por padrões espaciais e temporais de temperatura, nutrientes e organismos. Ao contrário a estrutura da paisagem é influenciada pelo fogo, vento, colonização, competição e intervenção humana. A ecologia da paisagem baseia-se no facto de os padrões espaciais da paisagem influenciarem fortemente os processos ecológicos. A habilidade para quantificar a estrutura da paisagem é um pré-requisito para o estudo da função e mudança da paisagem. Por este motivo muito ênfase tem sido dada ao desenvolvimento de métodos que quantificam a estrutura da paisagem (O’Neill et al. 1988, Turner 1990, Turner and Gardner 1991). Turner et al. 1989(a) dá-nos uma revisão de várias aproximações para a análise e com- P. Couto / Investigação Operacional, 24 (2004) 109-137 111 paração de padrões espaciais. Essa revisão inclui várias medidas como dimensão fractal, probabilidade de menor vizinhança, ı́ndice de contágio, orla, previsibilidade espacial e ajustamento com múltipla resolução. Posteriormente têm surgido na literatura uma grande quantidade de métricas; métricas de área, forma, contraste, contágio e diversidade. Assim, embora a literatura esteja repleta de métricas para descrever o padrão espacial, existem no entanto apenas duas componentes – composição e configuração, e apenas poucos aspectos de cada uma delas. As métricas muitas vezes medem múltiplos aspectos desse padrão. Muitas destas métricas estão de facto correlacionadas entre si (i.e. medem aspectos similares ou idênticos do padrão da paisagem) porque existem poucas medidas primárias que podem ser extraı́das das manchas (tipo de mancha, área, orla e tipo de vizinhança) e a maioria das métricas derivam destas medidas primárias. Algumas métricas são redundantes porque são formas alternativas de representar a mesma informação básica( ex. tamanho médio da mancha e densidade da mancha). Em outros casos, as métricas podem ser empiricamente redundantes; não porque medem o mesmo aspecto do padrão da paisagem, mas porque para paisagens particulares em investigação diferentes aspectos do padrão da paisagem estão estatisticamente correlacionados. Nesta investigação pretendeu-se responder a duas questões importantes: (1) quantos factores independentes do padrão da paisagem e estrutura são medidos pelas métricas tı́picas da paisagem? (2) quais as métricas ou combinação de métricas são escolhidas para quantificar cada um desses factores? Partindo de um largo conjunto de métricas, calculadas para um conjunto de mapas de ocupação de solo, uma análise factorial multivariada é aplicada para identificar um conjunto de factores independentes. 2 Materiais e Métodos 2.1 Mapas Foram seleccionados e rasterizados 50 mapas de ocupação do solo de Portugal Continental cedidos no formato vectorial pelo Centro Nacional de Informação Geográfico (CNIG). Através do programa IDRISI os mapas foram transformados para formato ASCII (de forma a ser aceite pelo FRAGSTATS). A selecção dos mapas foi feita de forma a cobrir diferentes regiões fisiográficas (figura 1, tabela 1). Cada mapa corresponde a uma área de 160 Km 2 numa escala de 1/25000. No formato raster os mapas têm uma extensão de 400x640 pixeis (excepto o mapa 109 com uma extensão de 400x87,mapa 122 com 400x665, mapa 133 com 400x505 e mapa 143 com 400x507) com um tamanho de grão de 25m. Cada pixel é classificado como uma das 69 classes definidas (tabela 2). 2.2 2.2.1 Métricas da paisagem Nı́veis As manchas formam a base de mapas categóricos. Dependendo do método para obter as manchas eles podem ser composicionalmente caracterizados em termos das variáveis medidas no interior delas. Isso pode incluir valor médio (ou moda, central ou max) e heterogeneidade 112 P. Couto / Investigação Operacional, 24 (2004) 109-137 Figura 1: Representação de Portugal Continental e das zonas seleccionadas no estudo. Tabela 1: Enumeração dos mapas por zonas do paı́s. Grande Porto 109 110 111 112 113 122 123 124 125 133 134 135 136 143 144 Zonas do paı́s Serra da Estrela Grande Lisboa 211 404 212 417 213 418 222 419 223 429 224 432 225 433 233 441 234 442 235 453 236 454 455 464 466 Alto Alentejo 456 457 458 459 460 467 468 469 470 471 P. Couto / Investigação Operacional, 24 (2004) 109-137 Tabela 2: Classes de ocupação de solo para Portugal Continental. 1 2 Áreas artificiais 11 Espaço Urbano 111 Tecido Urbano contı́nuo 112 Tecido Urbano descontı́nuo 113 Outros espaços fora do tecido urbano consolidado 12 Infraestruturas e Equipamentos 121 Zonas industriais e comerciais 122 Vias de comunicação 123 Zonas portuárias 124 Aeroportos 125 Outras infraestruturas e equipamentos 13 Improdutivos 131 Pedreiras, saibreiras, minas a céu aberto 132 Lixeiras, descargas industriais e depósitos de sucata 133 Estaleiros de construção civil 134 Outras áreas degradadas 14 Espaços verdes artificiais 141 Espaços verdes urbanos (florestais) 142 Espaços verdes (não florestais) para actividades desportivas e de lazer Áreas agrı́colas 21 Terras aráveis - Culturas anuais 211 Sequeiro 212 Regadio 213 Arrozais 214 Outros (estufas, viveiros, etc) 22 Culturas permanentes 221 Vinha 222 Vinha + Pomar 223 Vinha + Olival 224 Vinha + Cultura anual 23 Pomar 231 Citrinos 232 Pomoideas 233 Prumoideas ( sem a amendoeira ) 234 Amendoeiras 235 Figueiras 236 Alfarrobeiras 237 Outros pomares 238 Mistos de pomares 239 Olival 24 Outras arbustivas 241 Medronheiro 242 Outras arbustivas 25 Prados permanentes 251 Prados e lameiros 26 Áreas agrı́colas heterogéneas 261 Culturas anuais + Vinha 262 Culturas anuais + Pomar 263 Culturas anuais + Olival 264 Sistemas culturais e parcelares complexos 265 Áreas principalmente agricolas c/espaços naturais importantes 27 Territórios agro - florestais 271 Culturas anuais + Espécie florestal 272 Espécie florestal + Culturas anuais 113 114 P. Couto / Investigação Operacional, 24 (2004) 109-137 Tabela 2: Continuação. 3 4 5 6 Floresta 31 Folhosas 311 Sobreiro 312 Azinheira 313 Castanheiro bravo 314 Castanheiro manso 315 Carvalho 316 Eucalipto 317 Outras folhosas 32 Resinosas 321 Pinheiro bravo 322 Pinheiro manso 323 Outras resinosas Meios semi-naturais 41 Ocupação arbustiva e herbácea 411 Pastagens naturais pobres 412 Vegetação arbustiva baixa-matos 413 Vegetação esclerofitica-carrascal 414 Vegetação arbustiva alta e floresta degradada ou de transição 415 Áreas descobertas sem ou com pouca vegetação 416 Olival Abandonado 417 Praia, dunas, areais e solos sem cobertura vegetal 418 Rocha nua 419 Zonas incendiadas recentemente Meios aquáticos 51 Zonas húmidas continentais 511 Zonas pantanosas interiores e paúls 52 Zonas húmidas marinhas 521 Sapais 522 Salinas 523 Zonas interditais Superfı́cies com água 61 Áreas continentais 611 Cursos de água 612 Lagoas e albufeiras 62 Águas marı́timas 621 Lagunas e cordões litorais 622 Estuários 623 Mar e Oceano P. Couto / Investigação Operacional, 24 (2004) 109-137 115 interna (variância, intervalo). No entanto, em muitas aplicações, assim que as manchas são estabelecidas, a heterogeneidade do interior das manchas é ignorado. As métricas de padrões da paisagem em vez disso focam-se na distribuição espacial das manchas. Enquanto que manchas individuais possuem relativamente poucas caracterı́sticas espaciais (ex. área, perı́metro e forma), colecções de manchas podem ter uma variedade de propriedades agregadas. Estas propriedades dependem se a agregação é em relação a uma simples classe (tipo de mancha) ou múltiplas classes, e se a agregação é no interior de uma subregião da paisagem ou ao longo da paisagem. Comummente, métricas da paisagem podem ser definidas em três nı́veis: 1. Métricas ao nı́vel da mancha são definidas para manchas individuais e caracterizam a configuração espacial e o contexto das manchas. Em muitas aplicações, estas métricas da paisagem servem primeiramente como base computacional para outras métricas da paisagem. Algumas vezes as métricas de mancha podem ser importantes e informativos em investigações ao nı́vel da paisagem. 2. Métricas ao nı́vel da classe são integradas em relação a todas as manchas de um dado tipo. Essas métricas podem ser obtidas por média simples ou média pesada que tenha em conta a área da mancha. Existem propriedades adicionais ao nı́vel da classe que resulta da configuração única das manchas ao longo da paisagem. Em muitas aplicações o interesse principal é a quantidade e distribuição de um tipo particular de mancha. (3) Métricas ao nı́vel da paisagem são integradas em relação a todos os tipos de mancha ou classes em relação a toda a paisagem. Como as métricas de classe , estas métricas podem ser obtidas por simples média ou média pesada ou podem reflectir propriedades do padrão. Em muitas aplicações, o primeiro interesse é o padrão (i.e. composição e configuração) da paisagem total. 2.2.2 Categorias O termo “métricas da paisagem” refere-se exclusivamente a ı́ndices desenvolvidos para padrões de mapas categóricos. Métricas da paisagem são algoritmos que quantificam caracterı́sticas espaciais especificas de manchas, classes de manchas, ou inteiro mosaico da paisagem. Estas métricas definem-se em duas categorias: as que quantificam a composição do mapa sem referência aos atributos espaciais, ou as que quantificam a configuração espacial do mapa, requerendo informação espacial para os seus cálculos (McGarigal et al. 1995, Gustafson 1998). A composição é facilmente quantificada e refere-se a caracterı́sticas associadas com a variedade e abundância de tipos de manchas no interior da paisagem. Porque a composição requer integração em relação a todos os tipos de manchas as métricas de composição são definidas ao nı́vel da paisagem. Existem muitas medidas quantitativas de composição da paisagem, incluindo a proporção da paisagem em cada tipo de mancha, riqueza, uniformidade e diversidade da mancha. As principais medidas de composição são: 116 P. Couto / Investigação Operacional, 24 (2004) 109-137 • Proporção da abundância para cada classe. • Riqueza – corresponde ao no de diferentes tipos de mancha. • Uniformidade – é abundância relativa de diferentes tipos de mancha. • Diversidade – as medidas de diversidade tipicamente combinam duas componentes de diversidade: riqueza, que se refere ao número de classes presentes, e uniformidade, que se refere á distribuição da área entre classes. Exemplos de ı́ndices de diversidade são Shannon’s (Shannon e Weaver 1949), Simpson’s (Simpson 1949) e Simpson modificado (Pielou 1975). As componentes de riqueza e uniformidade também podem ser medidas independentemente (Romme 1982). • Domı́nio - o domı́nio é o complemento de uniformidade (uniformidade = 1 - domı́nio), indicando a extensão em relação ao qual o mapa é dominado por uma ou poucas classes (O’Neill et al. 1988) e tem sido usado largamente na investigação ecológica. A configuração espacial das propriedades do sistema é mais difı́cil de quantificar e tem como objectivo a descrição das caracterı́sticas espaciais de manchas individuais ou as relações espaciais entre múltiplas manchas. Outras métricas avaliam as propriedades de vizinhança sem referência a manchas, usando apenas as representações do pixel. As caracterı́sticas de mancha de uma paisagem inteira são muitas vezes consideradas como um sumário estatı́stico (por exemplo, média, mediana, variância e distribuição da frequência) para todas as manchas da classe (Baskent and Jordan 1995). Quando a configuração de um tipo de mancha singular é de particular interesse, a análise é conduzida como mapa simples binário, onde existem apenas duas classes, a classe de interesse e as outras classes combinadas. Os principais aspectos da configuração são: • Tamanho da mancha e densidade – A medida mais simples de configuração é o tamanho da mancha, que representa o atributo fundamental da configuração espacial da mancha. Muitas métricas da paisagem incorporam directamente informação acerca do tamanho da mancha ou são afectadas por este. • Complexidade da forma da mancha – A complexidade da forma relaciona-se com a geometria das manchas, se tendem a ser simples e compactas, ou irregulares e convolutas. A forma é um atributo espacial difı́cil de capturar numa métrica pelo número infinito de possı́veis formas de mancha. Assim, as métricas de forma geralmente correspondem a um ı́ndice geral da complexidade da forma em vez de atribuir um valor para uma única forma. As medidas mais comuns da complexidade da forma estão baseadas na quantidade de perı́metro por unidade de área, usualmente indexados em termos da razão perı́metro – área, como seja a dimensão fractal. A interpretação varia de acordo com as várias métricas da forma, mas em geral, altos valores significam maior complexidade da forma. P. Couto / Investigação Operacional, 24 (2004) 109-137 117 Outros métodos têm sido propostos como raio de giração (Pickover 1990), contiguidade (LaGro 1991),ı́ndice de linearidade (Gustafson e Parker 1992), elongação e ı́ndices de deformidade (Baskent e Jordan 1995). Mas estes ı́ndices não têm sido muito usados (Gustafson 1998). • Isolamento/Proximidade – Isolamento e proximidade refere-se á tendência para as manchas estarem relativamente isoladas no espaço em relação a outras manchas da mesma classe. Como a noção de isolamento é vaga, existem muitas medidas possı́veis dependendo de como a distância é definida entre manchas da mesma classe. Se dij é a distância de menor vizinhança da mancha i a outra mancha j do mesmo tipo, então o isolamento médio das manchas pode ser sumarizado simplesmente como a distância de menor vizinhança média para todas as manchas. Alternativamente, isolamento pode ser formulado em termos de ambos, o tamanho e a proximidade de vizinhança de manchas vizinhas, interiores a uma vizinhança local á volta de cada mancha, usando o ı́ndice de isolamento de Whitcomb et al. (1981) ou ı́ndice de proximidade de Gustafson e Parker (1992). O tamanho de vizinhança é especificado pelo utilizador e de acordo com o processo ecológico em consideração. O ı́ndice original de proximidade foi formulado para considerar apenas manchas da mesma classe no interior de uma vizinhança especifica. • Contraste – Contraste refere-se á diferença relativa entre tipos de manchas. Pode ser calculado como densidade de orla com peso de contraste, onde cada tipo de orla (i.e. entre cada par de tipos de manchas) está associado um peso de contraste. • Contágio e difusão – Contágio refere-se á tendência de tipos de manchas estarem espacialmente agregadas. Contágio ignora as manchas per se e mede a extensão em relação á qual pixeis de classes similares são agregados. A difusão, por outro lado, refere-se á mistura de manchas de diferentes tipos e é baseada inteiramente na adjacência de manchas. Existem diferentes aproximações para medir contágio e justaposição. Um ı́ndice popular que inclui ambas dispersão e difusão é o ı́ndice de contágio baseado na probabilidade de encontrar um pixel do tipo i junto a um pixel do tipo j (Li e Reynolds 1993). Este ı́ndice aumenta de valor quando a paisagem é dominada por poucas e largas manchas (i.e. contı́guas) e diminui de valor quando aumenta a subdivisão e difusão de tipos de manchas. Este ı́ndice sumariza a agregação de todas as classes e providencia uma medida de agrupamento geral de toda a paisagem. 2.3 Fragstats Fragstats é um programa de análise de padrões espaciais para mapas categóricos elaborado por Kevin McGarigal e Barbara Marks da Universidade de Oregon. Trata-se, na versão raster, de um programa em C, que aceita ficheiros de imagens ASCII, ficheiros de imagens de 8 e 16 bits, ficheiros Arc/Info, ficheiros de imagens Erdas e ficheiros de imagens IDRISI. O tipo de paisagem a analisar é definido pelo utilizador e pode ser qualquer fenómeno espacial. O Fragstats quantifica a composição e configuração espacial das manchas no interior da paisagem. 118 P. Couto / Investigação Operacional, 24 (2004) 109-137 As métricas do Fragstats são definidas como: • Métricas de área/densidade/orla • Métricas de forma • Métricas da área do núcleo • Métricas de proximidade e isolamento • Métricas de contraste • Métricas de contágio/difusão • Métricas de diversidade No interior de cada um destes grupos as métricas são agrupadas por mancha, classe e paisagem (Tabela 3). A fórmula matemática de cada uma das métricas é descrita no Apêndice 1. Neste estudo foram seleccionadas 33 métricas (tabela 4) por serem consideradas as mais representativas e estarem disponı́veis na versão FRAGSTATS 3.0. Ao nı́vel da classe existem dois tipos básicos de métricas: (1) ı́ndices que caracterizam a quantidade e configuração espacial da classe (2) parâmetros estatı́sticos (providenciam estatı́sticas sumárias das métricas da mancha para a classe em questão). Esses parâmetros estatı́sticos definidos para todas as métricas da mancha ao nı́vel da classe, são, a média – MN, média da área pesada – AMN, mediana – MD, intervalo – RA, desvio padrão – SD. Ao nı́vel da paisagem podemos também definir os mesmos parâmetros estatı́sticos relativos a uma dada métrica. 2.4 Análise factorial Pretendeu-se efectuar a análise de dados resultantes do cálculo das métricas apresentadas na tabela 4 para os 50 mapas, para isso, foi necessário recorrer a técnicas de tratamento de dados que sintetizam a informação de partida. Essas técnicas, cujo o objectivo é puramente descritivo, permitindo visualizar, num espaço de dimensão reduzida (compatı́vel com a interpretação), os dados de partida, pertencem à famı́lia dos métodos factoriais de análise de dados. Estes métodos dizem-se factoriais porque extraem, dos dados de partida, as caracterı́sticas estruturais essenciais, designadas por factores (Morrison, 1990). De entre as técnicas factoriais da análise de dados foi usada a análise em componentes principais. A análise em componentes principais foi a primeira que, historicamente, se baseou num tratamento matemático rigoroso (principio dos anos 30). Do facto, após trabalhos de diferentes investigadores no domı́nio da psicologia quantitativa (em que se pretendia encontrar os “factores latentes” – tais como “inteligência”, “imaginação”, “criatividade” – subjacentes aos resultados de uma bateria de testes incidindo sobre um conjunto de indivı́duos), Hotteling formulou a solução do problema, a partir de uma matriz de similitude ou de distância que relaciona entre si os resultados dos diferentes testes. P. Couto / Investigação Operacional, 24 (2004) 109-137 Tabela 3: Métricas definidas em FRAGSTATS 3.0. Métricas de área, densidade e orla Métricas de mancha M1 Área da mancha (AREA) M2 Perı́metro da mancha (PERIM) M3 Raio de giração (GYRATE) Métricas de classe Área total (CA) C1 C2 Percentagem da paisagem (PLAND) C3 Numero de manchas (NP) C4 Densidade da mancha (PD) C5 Orla total (TE) C6 Densidade da orla (ED) C7 Índice da forma da paisagem (LSI) Índice da maior mancha (LPI) C8 C9-C14 Parâmetros da área da mancha (AREA-MN,-AMN,-MD,-RA,-SD,-CV) C15-C20 Parâmetros do raio de giração (GYRATE-MN,-AMN,-MD,-RA,-SD,-CV) Métricas de paisagem P1 Área total (TA) P2 Número de manchas (NP) P3 Densidade da mancha (PD) P4 Orla total (TE) P5 Densidade da orla (ED) P6 Índice da forma da paisagem (LSI) P7 Índice da mancha mais larga (LPI) P8-P13 Parâmetros da área da mancha (AREA-MN,-AMN,-MD,-RA,-SD,-CV) P14-P19 Parâmetros do raio de giração (GYRATE-MN,-AMN,-MD,-RA,-SD,-CV) Métricas de forma Métricas de mancha M4 Razão perimetro-área (PARATIO) M5 Índice da forma (SHAPE) M6 Dimensão fractal (FRACT) Métricas de classe C21 Dimensão fractal perı́metro-área (PAFRAC) C22-C27 Parâmetros razão perimetro-área (PARATIO-MN,-AMN,-MD,-RA,-SD,-CV) C28-C33 Parâmetros do ı́ndice de forma (SHAPE-MN,-AMN,-MD,-RA,-SD,-CV) C33-C38 Parâmetros da dimensão fractal (FRACT-MN,-AMN,-MD,-RA,-SD,-CV) Métricas de paisagem P20 Dimensão fractal perı́metro-área (PAFRAC) P21-P26 Parâmetros razão perı́metro-área (PARATIO-MN,-AMN,-MD,-RA,-SD,-CV) P26-P31 Parâmetros do ı́ndice de forma (SHAPE-MN,-AMN,-MD,-RA,-SD,-CV) P31-P36 Parâmetros da dimensão fractal (FRACT-MN,-AMN,-MD,-RA,-SD,-CV) 119 120 P. Couto / Investigação Operacional, 24 (2004) 109-137 Tabela 3: Continuação. Métricas de área do núcleo Métricas de mancha Área do núcleo (CORE) M7 M8 Número de áreas do núcleo (NCA) M9 Índice de área do núcleo (CAI) Métricas de classe C39 Área total do núcleo (TCA) C40 Percentagem da área do núcleo relativamente á paisagem (CPLAND) C41 Número de áreas do núcleo disjuntas (NDCA) C42 Densidade de áreas do núcleo disjuntas (DCAD) C43-C48 Parâmetros das áreas do núcleo (CORE-MN,-AMN,-MD,-RA,-SD,-CV) C49-C54 Parâmetros das áreas do núcleo disjuntas(DCORE-MN,-AMN,-MD,-RA,-SD,-CV) C55-C60 Parâmetros áreas do núcleo (CAI-MN,-AMN,-MD,-RA,-SD,-CV) Métricas de paisagem P37 Área total do núcleo (TCA) P38 Número de áreas do núcleo disjuntas (NDCA) P39 Densidade de áreas do núcleo disjuntas (DCAD) P40-P45 Parâmetros das áreas do núcleo(CORE-MN,-AMN,-MD,-RA,-SD,-CV) P46-P51 Parâmetros das áreas do núcleo disjuntas (DCORE-MN,-AMN,-MD,-RA,-SD,-CV) P52-P57 Parâmetros áreas do núcleo (CAI-MN,-AMN,-MD,-RA,-SD,-CV) Métricas de isolamento e proximidade Métricas de mancha M10 Índice de proximidade (PROXIM) M11 Índice de similaridade (SIMILAR) M12 Distancia euclideana de menor vizinhança (ENN) Métricas da classe C61-C66 Parâmetros do ı́ndice de proximidade (PROXIM-MN,-AMN,-MD,-RA,-SD,-CV) C67-C72 Parâmetros do ı́ndice de similaridade (SIMILAR-MN,-AMN,-MD,-RA,-SD,-CV) C73-C78 Parámetros do ı́ndice de dist. euclideana (ENN-MN,-AMN,-MD,-RA,-SD,-CV) Métricas da paisagem P58-P63 Parâmetros do ı́ndice de proximidade (PROXIM-MN,-AMN,-MD,-RA,-SD,-CV) P64-P69 Parâmetros do ı́ndice de similaridade (SIMILAR-MN,-AMN,-MD,-RA,-SD,-CV) P70-P75 Parâmetros do ı́ndice de dist. euclideana (ENN-MN,-AMN,-MD,-RA,-SD,-CV) Métricas de contraste Métricas da mancha M13 Índice do contraste da orla (EDGECON) Métricas da classe C79 Densidade da orla com peso do contraste (CWED) Índice do contraste da orla total (TECI) C80 C81-C86 Parâmetros do ı́ndice do contraste da orla (EDGECON-MN,-AMN,-MD,-RA,-SD,CV) P. Couto / Investigação Operacional, 24 (2004) 109-137 121 Tabela 3: Continuação. Métricas da paisagem P76 Densidade da orla com peso do contraste (CWED) Índice do contraste da orla total (TECI) P77 P78-P83 Parâmetros do ı́ndice do contraste da orla (EDGECON-MN,-AMN,-MD,-RA,-SD,CV) Métricas de contágio e difusão Métricas da classe C87 Contágio (CONTAG) C88 Percentagem de adjacências semelhantes (PLADJ) C89 Índice de difusão e justaposição (IJI) Métricas da paisagem P84 Contágio (CONTAG) P85 Percentagem de adjacências semelhantes (PLADJ) Índice de difusão e justaposição (IJI) P86 Métricas de diversidade Métricas de paisagem P87 Riqueza das manchas (PR) P88 Densidade da riqueza das manchas (PRD) P89 Riqueza relativa das manchas (RPR) Índice de diversidade de Shannon’s (SHDI) P90 Índice de diversidade de Simpson’s (SIDI) P91 Índice de diversidade modificado de Simpson’s (MSIDI) P92 Índice de uniformidade de Shannon’s (SHEI) P93 P94 Índice de uniformidade de Simpson’s (SIEI) P95 Índice de uniformidade modificado de Simpson’s (MSIEI) 122 P. Couto / Investigação Operacional, 24 (2004) 109-137 Tabela 4: Métricas seleccionadas no estudo para análise de paisagens. P8 P52 P84 P40 P39 P46 P5 P70 P31 P14 P86 P7 P6 P92 P95 P38 P2 P20 P21 P3 P85 P87 P88 P58 P89 P26 P90 P93 P91 P94 P1 P37 P4 AREA MN CAI MN CONTAG CORE MN DCAD DCORE MN ED ENN MN FRACT MN GYRATE MN IJI LPI LSI MSIDI MSIEI NDCA NP PAFRAC PARATIO MN PD PLADJ PR PRD PROXIM MN RPR SHAPE MN SHDI SHEI SIDI SIEI TA TCA TE Média da área das manchas Média das áreas do núcleo Contágio Média das áreas do núcleo Densidade de áreas do núcleo disjuntas Média das áreas de núcleo disjuntas Densidade da orla Média do ı́ndice distância euclideana Média da dimensão fractal Média do raio de giração Índice de difusão e justaposição Índice da mancha mais larga Índice da forma da paisagem Índice de diversidade modificado de Simpson’s Índice de uniformidade modificado de Simpson’s Número de áreas do núcleo disjuntas Número de manchas Dimensão fractal perı́metro-área Média da razão perı́metro-área Densidade da mancha Percentagem de adjacências semelhantes Riqueza das manchas Densidade da riqueza das manchas Média do ı́ndice de proximidade Riqueza relativa das manchas Média do ı́ndice de forma Índice de diversidade de Shannon’s Índice de uniformidade de Shannon’s Índice de diversidade de Simpson’s Índice de uniformidade de Simpson’s Área total Área total do núcleo Orla total P. Couto / Investigação Operacional, 24 (2004) 109-137 123 Tabela 5: Estatı́sticas descritivas para 33 métricas seleccionadas a partir de 50 mapas. Variável Média Desvio Padrão AREA MN CAI MN CONTAG CORE MN DCAD DCORE MN ED ENN MN FRACT MN GYRATE MN IJI LPI LSI MSIDI MSIEI NDCA NP PAFRAC PARATIO MN PD PLADJ PR PRD PROXIM MN RPR SHAPE MN SHDI SHEI SIDI SIEI TA TCA TE 22.096 11.699 60.206 12.532 5.938 11.871 84.357 424.540 1.104 151.904 62.422 16.721 26.398 1.723 .520 835.7 1055.22 1.369 416.757 7.444 89.409 27.900 .286 197.832 40.435 1.901 2.109 .636 .805 .836 14509.910 6815.170 1202146 17.245 6.283 6.302 13.781 2.456 12.206 32.628 179.511 .007 47.480 5.200 13.634 10.408 .425 .117 403.380 752.990 .012 63.672 5.022 4.094 5.940 .513 273.473 8.608 .104 .364 .091 .084 .084 3552.672 3003.120 550616.3 Coef. Var % 78.0 53.7 10.4 109.6 41.3 102.8 38.6 42.2 0.6 31.2 8.3 81.5 39.4 24.6 22.5 48.2 71.3 0.8 15.2 67.4 4.5 21.2 179.3 138.2 21.2 5.4 17.2 14.3 10.4 10.0 24.4 44.0 45.8 Para ajudar a interpretar os factores obtidos é comum usar-se métodos que procedem á “rotação” dos eixos seleccionados. Vários métodos têm sido propostos para este propósito, um dos métodos convenientes é o varimax; foi este o método escolhido neste estudo. Os factores sofrem rotação de forma a maximizar a soma do quadrado das variâncias das quantidades no interior de cada coluna da matriz de rotação. O propósito é o de produzir valores grandes ou pequenos e evitar valores intermédios (Kendall, 1980). 3 Resultados e Discussão São apresentadas estatı́sticas descritivas para as 33 métricas na tabela 5. Os coeficientes de correlação para todos os pares são apresentados na tabela 6. Muitas destas métricas usadas para 124 P. Couto / Investigação Operacional, 24 (2004) 109-137 Tabela 6: Matriz de correlação (coeficientes de correlação de Pearson) para as 33 métricas seleccionadas. P. Couto / Investigação Operacional, 24 (2004) 109-137 125 Tabela 7: Resultados da aplicação do método de componentes principais e uso da rotação varimax. EIXO VALOR PROPRIO INERCIA ACUMULADA AREA MN CAI MN CONTAG CORE MN DCAD DCORE MN ED ENN MN FRACT MN GYRATE MN IJI LPI LSI MSIDI MSIEI NDCA NP PAFRAC PARATIO MN PD PLADJ PR PRD PROXIM MN RPR SHAPE MN SHDI SHEI SIDI SIEI TA TCA TE 1 17.081 51.760 .859 .966 .450 .815 -.713 .734 -.862 .903 -.057 .941 .063 .456 -.759 -.159 -.181 -.595 -.785 -.924 -.899 -.844 .861 -.037 -.045 .169 -.037 .420 -.116 -.141 -.210 -.214 .102 .691 -.699 2 6.221 70.611 -.390 -.039 -.859 -.415 .646 -.482 .432 -.215 .075 -.125 .550 -.735 .299 .918 .935 .375 .193 -.025 -.188 .309 -.437 .311 .291 -.737 .311 -.097 .855 .917 .935 .943 -.323 -.585 .195 3 4.040 82.853 -.028 -.014 .182 -.029 -.027 -.063 -.090 -.065 -.279 -.059 -.317 -.279 .535 .0241 -.168 .651 .439 .087 -.015 .0695 -.081 .398 -.732 -.093 .398 -.208 -.0234 -.251 -.0622 .006 .841 .280 .639 4 1.564 87.594 -.113 -.114 -.094 -.102 -.040 -.040 -.112 .080 -.045 -.096 .578 .194 .053 .300 .084 .128 -.022 .064 .050 -.136 .113 .796 -.205 .031 .796 -.051 .494 .220 .170 .110 .200 .146 .047 5 1.187 91.191 -.099 .103 -.010 -.185 .041 -.261 -.119 -.021 .927 .215 .115 -.116 -.154 .007 -.048 -.092 -.306 .228 -.199 -.310 .115 -.088 .249 .0859 -.088 .866 -.008 .050 -.010 .003 -.188 -.101 -.172 126 P. Couto / Investigação Operacional, 24 (2004) 109-137 Tabela 8: O valor dos factores associados a cada mapa. Mapas 109 110 111 112 113 122 123 124 125 133 134 135 136 143 144 211 212 213 222 223 224 225 233 234 235 236 404 417 418 419 429 432 433 441 442 453 454 455 456 457 458 459 460 464 466 467 468 469 470 471 1 -2.26 -4.60 -3.04 -4.70 -3.11 -3.32 -2.91 -2.51 -2.42 -5.46 -3.27 -4.16 -3.14 -3.57 -2.19 -4.12 -3.53 -.58 -4.13 1.25 0.04 -2.50 .07 .51 -2.30 -2.04 1.43 -2.07 3.56 1.97 -1.36 -.01 .50 -.71 -1.17 .74 -2.53 -.69 1.83 .12 -.24 -.14 1.79 -.16 5.02 2.08 1.04 1.56 3.02 3.62 2 5.05 5.77 4.42 5.81 5.23 5.48 5.00 4.73 5.23 6.03 4.31 5.40 5.09 4.86 3.33 4.91 4.77 3.34 4.84 .89 3.57 5.05 1.33 1.18 4.67 4.65 1.54 5.69 1.31 1.21 5.57 4.41 3.56 5.42 5.06 2.18 6.36 5.45 1.53 3.15 3.31 3.66 .32 4.58 .51 1.97 3.25 2.64 .27 .15 Factores 3 -.37 2.41 1.91 2.42 1.86 1.76 1.79 1.77 1.77 1.95 1.97 2.23 1.98 1.48 1.62 2.27 2.14 1.34 2.33 .83 1.24 1.97 .92 1.10 1.84 1.74 1.18 1.87 .72 .84 -.35 1.44 1.20 -1.68 1.46 .72 1.76 1.31 .90 1.22 1.38 1.23 .82 .60 .41 .94 1.02 1.08 .69 .73 4 -.24 2.67 2.51 2.61 2.61 2.95 2.71 2.55 2.75 2.43 2.57 2.72 2.71 2.40 2.27 2.56 2.89 2.62 2.56 2.06 2.73 2.82 2.16 2.15 2.97 2.83 2.92 3.51 2.61 2.43 2.52 3.35 2.72 1.74 3.17 2.43 3.45 3.31 2.19 2.37 2.30 2.60 2.51 2.68 2.32 2.28 2.50 2.26 1.93 1.83 5 1.63 .64 .82 .66 1.01 .85 .94 1.02 1.09 .51 .76 .69 .92 .86 .90 .73 .76 1.21 .69 1.28 1.32 1.07 1.11 1.28 .96 1.04 1.15 1.04 1.05 1.24 1.72 1.21 1.25 2.24 1.21 1.42 1.18 1.31 1.37 1.33 1.32 1.33 1.18 1.67 1.15 1.41 1.41 1.40 1.31 1.22 P. Couto / Investigação Operacional, 24 (2004) 109-137 127 Figura 2: Representação dos mapas com o valor mais elevado e mais baixo de factores relativamente a cada um dos eixos (Tabela 8). 128 P. Couto / Investigação Operacional, 24 (2004) 109-137 Figura 2: Continuação. P. Couto / Investigação Operacional, 24 (2004) 109-137 Figura 2: Continuação. 129 130 P. Couto / Investigação Operacional, 24 (2004) 109-137 quantificar a heterogeneidade espacial estão correlacionadas e exibem interacção estatı́stica entre si o que sugere que uma aproximação factorial multivariada de redução de dados pode conduzir a resultados úteis. Após a factorização da matriz de correlação pelo método das componentes principais, os primeiros cinco factores explicam 91.2% da variação para as 33 métricas da paisagem (tabela 7). A tabela 7 apresenta os pesos de cada métrica para cada um dos cinco factores após a rotação varimax. O primeiro factor apresenta valores elevados para as métricas AREA MN, CAI MN, CORE MN, DCAD, DCORE MN, ED, ENN MN, GYRATE MN, LSI, NP, PAFRAC, PARATIO MN, PD, PLADJ, TCA, TE. O segundo factor apresenta valores elevados para CONTAG, LPI, MSIDI, MSIEI, PROXIM MN, SHDI, SHEI, SIDI, SIEI. Para o terceiro factor as métricas associadas são NDCA, PRD, TA. Para o quarto factor temos as métricas IJI, PR, RPR. E finalmente para o quinto factor as métricas com maior valor são FRACT MN e SHAPE MN. As dimensões existentes podem ser interpretadas pela análise da correspondência entre as várias métricas e os eixos factoriais. O primeiro eixo é designado por média da compactação da mancha porque está relacionado com medidas compactação da mancha. O segundo eixo está relacionado com distribuição dos pixeis e adjacência; estas métricas parecem medir a textura da imagem. O terceiro eixo está correlacionado com a área da paisagem. O quarto eixo está correlacionado com o número de classes. O quinto eixo está correlacionado com medidas fractais, área – perı́metro. Dez mapas que representam extremos relativamente a cada um dos factores são apresentados na figura 2. A escolha dos mapas foi realizada a partir da análise da tabela 8 que representa o peso de cada mapa relativamente a cada um dos factores. A figura 2 providencia uma impressão visual dos tipos de padrão e estrutura correspondentes aos vários factores. Os mapas 466 e 133 têm pesos altos e opostos relativamente ao primeiro eixo e mostram diferenciação na média de compactação das manchas. Os mapas 454 e 471 ilustram diferenças na textura da imagem. Os mapas 112 e 441 têm diferenças na área da paisagem. Os mapas 417 e 109 têm diferença no número de classes. Os mapas 468 e 133 têm diferenças nas medidas fractais área – perı́metro. A análise multivariada pode resultar na transformação de um conjunto de métricas que combinam múltiplos componentes do padrão num valor singular de forma a reduzir o número de variáveis. Neste caso pode conduzir á substituição das 33 métricas por 5 métricas. A escolha das métricas é realizada considerando os valores mais altos para cada um dos factores (tabela 7). Assim as métricas representativas de cada um dos factores são: ı́ndice de área do núcleo (CAI MN), ı́ndice de uniformidade de Simpson’s (SIEI), área total (TA), riqueza das manchas (PR) e dimensão fractal (FRACT MN), respectivamente. 4 Conclusão A solução proposta é a de descrever os factores fundamentais do padrão espacial que são independentes e extrair um conjunto de ı́ndices para medir esses factores. Foi realizada uma análise factorial de 33 ı́ndices do padrão espacial para 50 mapas de ocupação do solo e foram identificados cinco factores independentes que podem ser interpretados como (a) média da compactação da mancha (b) textura da imagem (c) área da paisagem (d) número de classes P. Couto / Investigação Operacional, 24 (2004) 109-137 131 (e) medidas fractais perı́metro – área. O padrão factorial sugere que os cinco factores podem ser adequadamente representados por cinco métricas univariadas: ı́ndice de área do núcleo (CAI MN), ı́ndice de uniformidade de Simpson’s (SIEI), área total (TA), riqueza das manchas (PR) e dimensão fractal (FRACT MN). É provável que outros factores possam ser identificados se considerarmos mapas da paisagem em diferentes escalas (número de classes atribuı́das, tamanho do grão e extensão do mapa), se considerarmos diferentes métricas adicionais que não estão relacionadas com as métricas aqui estudadas, ou ainda, se considerarmos diferentes conjuntos de mapas. Estas observações salientam o uso da análise factorial como uma ferramenta descritiva. Não podemos inferir a partir de uma simples análise factorial todos os factores do padrão da paisagem; no entanto, a experiência do uso da análise factorial em outros trabalhos, tais como, Riitters 1995 e Rogers 1993, aplicados a diferentes mapas e métricas, sugerem resultados semelhantes. Assim o grau de confiança no uso destes resultados é maior. 5 Bibliografia Baskent EZ, Jordan GA, 1995, Characterizing spatial structure of forest landscapes. Can J For Res 25:1830-1849. Forman, R.T.T. e M. Godron, 1981, Patches and structural components for a landscape ecology. BioScience 31: 733-740. Forman, R.T.T. e M. Godron, 1986, Landscape Ecology. John Wiley and Sons, New York, 619 pp Gustafson EJ, Parker GR., 1992. Relationship between landcover proportion and indices of landscape spatial pattern. Landscape Ecology 7:101-110. Gustafson, E.J., 1998. Quantifying landscape spatial pattern: What is the state of the art. Ecosystems: 143-156. Kendall, 1980, Multivariate analysis. Second Edition, Charles Griffin &Company Limited. LaGro, J., Jr., 1991, Assessing patch shape in landscapes mosaics. Photogrammetric Engineering and Remote Sensing 57, 285-293. Li, H. and Reynolds, J.F., 1993. A new contagion index to quantify spatial patterns of landscapes. Landscape Ecology 8: 155-162. McGarigal K, McComb WC. 1995. FRAGSTATS: spatial pattern analysis program for quantifying landscape structure. Portland (OR): USDA Forest Service, Pacific Northwest Research station; General Technical Report PNW-GTR-351. Morrison, D.F., 1990, Multivariate Statistical Methods. Third Edition, McGraw-Hill Inc., New york NY. O’Neill, R.V., Krummel, J.R., Gardner, R.H., Sugihara, G., Jackson, B., DeAngelis, D.L., Milne, B.T., Turner, M.G., Zygmunt, B., Christensen, S.W., Dale, V.H. and R.L. Graham, 1988. Indices of landscape pattern. Landscape Ecology 1: 153-162. Pickover CA., 1990, Computers, pattern, chaos and beauty: graphics from an unseen world. New York: St Martin’s. Pielou EC., 1975, Ecological diversity. New York: Wiley-Interscience Riitters KH, O’Neill RV, Hunsaker CT, Wickham JD, Yankee DH, Timmons SP, Jones KB e Jackson BL, 1995, A factor analysis of landscape pattern and structure metrics. Landscape Ecology, 11, 197-202 132 P. Couto / Investigação Operacional, 24 (2004) 109-137 Rogers, C., 1993, Describing landscapes: indices of structure. M.S. Thesis, Simon Fraser University, Burnaby, British Columbia, 170 pp. Romme WH., 1982, Fire and landscape diversity in Sub-Alpine forests of Yellowstone National Park. Ecol. Monogr, 52, 199-221. Shannon, C.E., e Weaver, W., 1949, The mathematical theory of communication (Urbano University of Illinois Press). Simpson E.H., 1949, Measurement of diversity. Nature, 163, 688. Turner, M.G. and Gardner, R.H. (editors), 1991. Quantitative Methods in Landscape Ecology. Springer-Verlag, New York NY. Turner, M.G., 1990, Spatial and temporal analysis of landscape patterns. Landscape Ecology, 4, 21-30. Turner, M.G., Costanza, R. and Sklar, F.H., 1989(a). Methods to evaluate the performance of spatial simulation models. Ecological Modeling 48:1-18. Turner, M.G., R.V. O’Neill, R.H.Gordon, e B.T.Milne, 1989(b), Effects of changing spatial scale on the analysis of landscape pattern. Landscape Ecology, 3, 153-162. Whitcomb, R.F., J.F.Lynch, M.K.Klimkiewwicz, C.S. Robbins, B.L. Whitcomb, and D.Bystrak, 1981, Effects of forest fragmentation on avifauna of the eastern deciduous forest. Forest island dynamics in man-dominated landscapes. Springer-Verlag, New York. Wiens, J.A., 1989, Spatial scaling in ecology. Functional Ecol., 3, 385-397. P. Couto / Investigação Operacional, 24 (2004) 109-137 133 Apêndice 1 Fórmulas das métricas definidas em FRAGSTATS 3.0. (M1) Área damancha - AREA (M2) Perı́metro da mancha - PERIM (M3) Raio de giração - GYRATE (C1) Área total - CA 1 10,000 AREA = aij 2 aij – área (m ) da mancha ij. GY RAT E = Z P r=1 hijr Z A (100) pi – proporção da paisagem ocupada pela mancha tipo ( classes) i. aij – área (m2 ) da mancha ij. A - área total da paisagem (m2 ). (C4) Densidade da mancha - PD PD = 1 10.000 aij - área (m2) da mancha ij. (C3) Número de manchas - NP N P = ni aij j=1 aij j=1 (C2) Percentagem da paisagem - PLAND P LAN D = pi = n P CA = hijr – distância (m) entre a célula ijr ( localizada no interior da mancha ij) e o centróide da mancha ij baseada na distância centro da célula a centro da célula. Z – número de células na mancha ij n P P ERIM = pij pij – perı́metro (m) da mancha ij. ni A (10, 000)(100) ni – número de manchas de tipo (classe) i na paisagem (C5) Orla total - TE TE = m P eik ni – número de manchas de tipo (classe) i na paisagem. A – área total da paisagem (m2 ). eik – tamanho total da orla entre tipos (classe) de manchas i e k. (C6) Densidade da orla - ED (C7) Índice da forma da paisagem - LSI ED = m P k=1 .25 eik k=1 (10.000) A m P e∗ik k=1 √ LSI = A eik – tamanho total da orla entre tipos de manchas i e k. A – área (m2 ) total da paisagem. e∗ik – tamanho total (m) da orla entre tipos de manchas i e k A – área total da paisagem (C8) Índice da maior mancha - LPI (P1) Área total -TA n max(aij ) LP I = j=1 A (100) aij – área (m2 ) da mancha ij. A – área (m2 ) total da paisagem. AT = A 1 10,000 A - área (m2 ) total da paisagem. (P2) Número de manchas - NP (P3) Densidade da mancha – PD NP = N PD = N– número total de manchas na paisagem. N – número total de manchas na paisagem. A – área (m2 ) total da paisagem. (P4) Orla total - TE (P5) Densidade da orla - ED TE = E ED = E – comprimento (m) total da orla na paisagem. E – total do comprimento (m) da orla na paisagem. A – área total da paisagem (m2 ). N A (10, 000)(100) E A (10, 000) 134 P. Couto / Investigação Operacional, 24 (2004) 109-137 (P6) Índice da forma da paisagem - LSI LSI = (P7) Índice da mancha mais larga - LPI ∗ .25E √ A LP I = max(aij ) (100) A E – total do comprimento (m) de orla na paisagem. A – área total da paisagem (m2 ). aij – área (m2 ) da mancha ij. A – área total da paisagem (m2 ). (M4) Razão perı́metro - área - PARATIO (M5) Índice da forma - SHAPE ∗ P ARAT IO = pij aij .25pij √ aij SHAP E = pij – perı́metro (m) da mancha ij. aij – área (m2 ) da mancha ij. pij – perı́metro (m) da mancha ij. aij – área (m2 ) da mancha ij. (M6) Índice da dimensão fractal - FRACT F RACT = 2 ln(.25pij ) ln aij pij – perı́metro (m) da mancha ij. aij – área (m2 ) da mancha ij. (C21) Dimensão fractal perı́metro–área - PAFRAC P AF RAC = n m P P ni ( ln pij . ln aij ) i=1 j=1 ni n P 2 − ln p2ij j=1 pij – perı́metro (m) da mancha ij. aij – área (m2 ) da mancha ij. ni – no de manchas na paisagem de classe i. n P ln pij j=1 n P ln pij j=1 2 n P ln aij j=1 (P20) Dimensão fractal perı́metro–área - PAFRAC P AF RAC = N m P n P (ln pij . ln aij ) 2m n PP ln pij i=1 j=1 i=1 j=1 N n m P P m n PP 2 ln pij i=1 j=1 pij – perı́metro (m) da mancha ij. aij – área (m2 ) da mancha ij. N – no total de manchas na paisagem. i=1 j=1 m n PP ln aij i=1 j=1 2 ln pij (M7) Área donúcleo- CORE (M8) Número de áreas do núcleo - NCA (M9) Índice de área do núcleo - CAI (C39) Área total do núcleo - TCA CAI = T CA = CORE = acij 1 10,000 acij – área (m2 ) do núcleo da mancha ij com um valor de buffer especificado (m). acij aij (100) N CORE = ncij ncij – número de áreas de núcleo disjuntas na mancha ij baseada do valor do buffer especificado (m). n P j=1 acij 1 10,000 acij – área (m2 ) do núcleo da mancha ij com um valor de buffer especificado (m). aij – área (m2 ) da mancha ij. acij – área (m2 ) do núcleo da mancha ij com um valor de buffer especificado (m). (C40)Percentagem da área do núcleo relativamente á paisagem -CPLAND (C41) Número de áreas do núcleo disjuntas NDCA CP LAN D = n P N DCA = acij j=1 A (100) acij – área (m2 ) do núcleo da mancha ij com um valor de buffer especificado (m). A – área total da paisagem (m2 ). n P j=1 ncij ncij – número de áreas do núcleo disjuntas na mancha ij baseada no comprimento do buffer especificado (m). P. Couto / Investigação Operacional, 24 (2004) 109-137 (C42) Densidade de áreas do núcleo disjuntas - DCAD DCAD = n P ncij j=1 ncij – número de áreas do núcleo disjuntas na mancha ij baseada no comprimento do buffer especificado (m). A – área total da paisagem (m2 ). (P38) Número de áreas do núcleo disjuntas NDCA N DCA = m P n P i=1 j=1 T CA = n m P P (M10) Índice de proximidade - PROXIM n P s=1 aijs h2ijs acij 1 10,000 acij – área (m2 ) do núcleo da mancha ij com um valor de buffer especificado (m). (P39) Densidade de áreas do núcleo disjuntas - DCAD ncij ncij – número de áreas do núcleo disjuntas na mancha ij baseada no comprimento do buffer especificado (m). P ROXIM = (P37) Área total do núcleo - TCA i=1 j=1 (10, 000) (100) A 135 DCAD = m P n P ncij i=1 j=1 (10, 000) (100) A ncij – número de áreas do núcleo disjuntasna mancha ij baseada no comprimento do buffer especificado (m). A – área total da paisagem (m2 ). (M11) Índice de similaridade - SIMILAR SIM ILAR = n P s=1 aijs dik h2ijs aijs – área (m2) da mancha ijs no interior da vizinhança especificada (m) da mancha ij. hijs – distância (m) entre mancha ijs (localizada no interior de uma distância especificada da mancha ij) e a mancha ij baseada na distância orla a orla. aijs – área (m2 ) da mancha ijs no interior da vizinhança especificada (m) da mancha ij. dik – similaridade entre as manchas de tipo i e k. hijs – distância (m) entre mancha ijs (localizada no interior de uma distância especificada da mancha ij) e a mancha ij baseada na distância orla a orla. (M12) Distância euclideana de menor vizinhança - ENN (M13) Índice do contraste da orla - EDGECON EN N = hij hij – distância da mancha ij á mancha de vizinhança mais próximacom o mesmo tipo de classe, baseada na distância orla a orla (a partir do centro da célula ao centro de outra célula). (C79) Densidade da orla com peso de contraste - CWED CW ED = m P (eik .dik ) k=1 (10, 000) A eik – comprimento total da orla na paisagem entre manchas tipo i e k. dik – peso do contraste da orla entre manchas tipo i e k. A – área (m2 ) total da paisagem. (P76) Densidade da orla com peso do contraste – CWED CW ED = m m P P (eik dik ) i=1 k=i+1 A (10, 000) eik – comprimento total da orla na paisagem entre manchas tipo i e k. dik – peso do contraste da orla entre manchas tipo i e k. A – área (m2 ) total da paisagem. EDGECON = m P (pijk .dik ) k=1 (100) pij pijk – comprimento da orla entre a mancha ij e a mancha adjacente de tipo (classe) k. dik - peso do contraste da orla entre manchas tipo i e k. pij – perı́metro (m) da mancha ij. (C80) Índice do contraste da orla total -TECI T ECI = m P eik dik k=1 m P (100) e∗ik k=1 eik – comprimento total da orla na paisagem entre manchas tipo i e k e∗ik - total do comprimento da orla na paisagem entre classes de manchas de tipo i e k dik – peso do contraste da orla entre manchas tipo i ek (P77) Índice do contraste da orla total (TECI) T ECI = m m P P j=1 k=i+1 E∗ eik .dik (100) eik – comprimento total da orla na paisagem entre manchas tipo i e k. dik – peso do contraste da orla entre manchas tipo i e k. E∗ – Total da orla (m) na paisagem. 136 P. Couto / Investigação Operacional, 24 (2004) 109-137 (C87) Contágio – CONTAG gii m gik CON T AG = P −2Pi +1 k=1 (100) 2−2Pi gii – número de ligações entre pixeis de mancha classe i. gik – número de ligações entre pixeis de tipos de manchas i e k. Pi – proporção da paisagem ocupada por manchas do tipo i. (C89) Índicede justaposição e - IJI difusão − m P eik eik ln P P m m k=1 eik IJI = k=1 ln(m−1) m m (100) gik k=1 gii – número de ligações entre pixeis de mancha classe i. gik – número de ligações entre pixeis de tipos de manchas i e k. m P eik – comprimento total da orla na paisagem entre tipos de manchas i e k. m – tipos de manchas. (P84) Contágio - CONTAG gii P LADJ = P (100) m (P85) Percentagem de adjacências semelhantes (PLADJ) eik k=1 (C88) Percentagem de adjacências semelhantes - PLADJ gii i=1 P LADJ = P m P m gik i=1 k=1 (100) gii – número de ligações entre pixeis de mancha classe i. gik – número de ligações entre pixeis de tipos de manchas i e k. P P gik gik ln(pi ) P (pi ) P m m i=1 k=1 gik gik k=1 k=1 CON T AG = 1 + (100) 2 ln(m) gik – número de adjacências entre pixels do tipo i e k. pi – proporção da paisagem ocupada por manchas tipo i. m – numero de tipos de mancha (classes). (P86) Índice de difusão e justaposição - IJI − IJI = m m P P [( eEik )−ln( eEik )] i=1 K=i+1 ln(1/2[m(m−1)] (100) eik – comprimento total da orla na paisagem entre tipos de manchas i e k. e – total do comprimento de orla na paisagem. m – tipos de manchas. (P87) Riqueza das manchas - PR (P88) Densidade da riqueza da mancha - PRD PR = m P RD = m A (10.000)(100)m – diferentes tipos de manchas. m – no tipos de manchas. A – área total da paisagem. (P89) Riqueza relativa das manchas - RPR RP R = m mmax (100) m – diferentes tipos de manchas. mmax – máximo número tipos de manchas presentes na paisagem. (P91) Índice de diversidade de Simpson’s SIDI SIDI = 1 − n P i=1 p2i pi – proporção da paisagem ocupada por um tipo de mancha i. (P90) Índice de diversidade de Shannon’s SHDI SHDI = − m P (pi ln pi ) i=1 pi – proporção da paisagem ocupada por um tipo de mancha i. (P92) Índice de diversidade modificado de Simpson’s - MSIDI M SIDI = − ln m P i=1 p2i pi – proporção da paisagem ocupada por um tipo de mancha i. P. Couto / Investigação Operacional, 24 (2004) 109-137 (P93) Índice de uniformidade de Shannon’s SHEI − SHEI = m P (P94) Índice de uniformidade de Simpson’s SIEI 1− pi ln(pi ) i=1 ln m pi – proporção da paisagem ocupada por um tipo de mancha i. m – no tipos de manchas diferentes. 137 SIEI = m P p2i i=1 1 1− m p – proporção da paisagem ( ) i ocupada por um tipo de mancha i. m – no tipos de manchas diferentes. − ln (P95) Índice modificado de uniformidade de Simpson’s - MSIEIM SIEI = pi – proporção da paisagem ocupada por um tipo de mancha m – no tipos de manchas m P i=1 ln m p2 i REVISTA INVESTIGAÇÃO OPERACIONAL Polı́tica Editorial Investigação Operacional (IO) é a revista cientı́fica da APDIO - Associação Portuguesa de Investigação Operacional. A polı́tica editorial da IO é publicar artigos originais e de elevada qualidade que contribuam para a teoria, metodologia, técnicas e software de Investigação Operacional e a sua aplicação a diferentes campos. A Revista também publica artigos com revisões relevantes de temas de IO. Casos de sucesso na aplicação a problemas práticos são especialmente bem vindos. Processo de Aceitação Todos os manuscritos submetidos para publicação são revistos e aceites apenas com base na avaliação da sua qualidade, importância e adequação à polı́tica editorial. Será responsabilidade do Editor interpretar a avaliação dos revisores. A contribuição de cada artigo deve estar claramente evidenciada na Introdução. Critérios como a relação com literatura existente, comprimento e estilo do artigo são tidos em consideração. Uma indicação clara da viabilidade de aceitação do artigo é habitualmente dada na primeira fase de revisão do artigo. Será requerido aos autores de um artigo aceite que transfiram os direitos de autoria para a APDIO, que assegurará a mais ampla disseminação possı́vel de informação. Os volumes da Revista são publicados em papel, e distribuı́dos a todos os associados da APDIO, e em formato electrónico na rede SciELO - Scientific Electronic Library Online. Resumos dos Artigos indexados em IAOR - International Abstracts in Operations Research Instruções aos Autores 1. Submeter artigos para publicação ao editor principal, de preferência por e-mail em Microsoft Word ou “Portable Document Format” (PDF) para [email protected], ou por correio normal (quatro cópias) para o seguinte endereço: Prof. Joaquim J. Júdice, Departamento de Matemática, Faculdade de Ciências e Tecnologia, Universidade de Coimbra, Apartado 3008, 3001-454 COIMBRA, Portugal. 2. Lı́ngua. Os artigos devem ser escritos em Português, Inglês ou Espanhol. 3. Os Manuscritos devem ser impressos. Numerar as páginas consecutivamente. 4. A primeira página do manuscrito escrito em português ou em espanhol deve ter a seguinte informação: (a) Tı́tulo; (b) nome, e-mail e afiliação institucional dos autores; (c) um resumo; (d) palavras-chave; (e) tı́tulo em inglês (f) um resumo em inglês; (g) palavraschave em inglês; (h) identificação do autor correspondente. Se o manuscrito for escrito em inglês, a primeira página deve ter a seguinte informação: (a) Tı́tulo em inglês; (b) nome, e-mail e afiliação institucional dos autores; (c) um resumo em inglês; (d) palavras-chave em inglês; (e) identificação do autor correspondente. 5. Agradecimentos, incluindo informação sobre apoios, dever ser colocados imediatamente antes da secção de referências. 6. Notas de rodapé devem ser evitadas. 7. Formulas que são referenciadas devem ser numeradas consecutivamente ao longo do manuscrito como (1), (2), etc. do lado direito. 8. Figuras, incluindo grafos e diagramas, devem ser numerados consecutivamente em numeração árabe. 9. Tabelas devem ser numeradas consecutivamente em numeração árabe. 10. Referências. Citar apenas as mais relevantes e listar só as que são citadas no texto. Indicar as citações no texto através de parênteses rectos, e.g., [4]. No final do artigo listar as referências alfabeticamente por apelido do primeiro autor e numerá-las consecutivamente, de acordo com o seguinte formato: Artigos: autore(s), tı́tulo, nome e volume da revista (ou livro, mas neste caso incluir o nome dos editores), ano e páginas. Livros: Autor(es), tı́tulo, editor, ano. 11. Artigos aceites devem ser enviados pelo autor ao editor, de preferência na forma de um ficheiro fonte em LaTeX com ficheiros EPS para as figuras, juntamente com um ficheiro PDF ou Postscript. Em alternativa, ficheiros fonte em Word são também aceites. Para garantir uma boa qualidade gráfica, as figuras devem ser em formato vectorial; formatos raster como JPG, BMP, GIF, etc. devem ser evitados. 12. Provas dos artigos serão enviadas por e-mail como ficheiros PDF para o autor correspondente. Corrigir as provas cuidadosamente, e restringir as correcções apenas aos pontos em que as provas diferem do manuscrito. Desvios à versão aceite pelo editor são apenas possı́veis com a autorização prévia e explı́cita do editor. Trinta separatas de cada artigo são enviados gratuitamente ao autor correspondente. Informação sobre a Publicação Investigação Operacional (ISSN 0874-5161) está registada na Secretaria de Estado da Comunicação Social sob o número 108335. Os volumes da Revista são publicados em papel, e distribuı́dos a todos os associados da APDIO, e em formato electrónico na rede SciELO Scientific Electronic Library Online. O preço da assinatura anual é de 25 euros. Os volumes são enviados por correio normal. Informação adicional sobre assinaturas pode ser solicitada ao Secretariado da APDIO- CESUR, Instituto Superior Técnico, Av. Rovisco Pais, 1049-001 LISBOA, Portugal. Tel. +351 218 407 455 - www.apdio.pt - [email protected] JOURNAL INVESTIGAÇÃO OPERACIONAL Editorial Policy Investigação Operacional (IO) is the scientific journal of APDIO - Associação Portuguesa de Investigação Operacional (the Portuguese Operational Research Association). The editorial policy of IO is to publish high quality and original articles that contribute to theory, methodology, techniques and software of Operational Research (OR) and its application to different fields. It also publishes articles with relevant reviews of OR subjects. Cases of successful application of OR to practical problems are specially welcome. Acceptance Process All manuscripts submitted for publication are refereed and accepted only on the basis of its quality, importance and adequacy to the editorial policy. It will be the responsibility of the Editor to interpret the referee’s assessment. The contribution of each paper should be clearly stated in the introduction. Criteria such as relationship with existing literature, length and style are taken into account. A clear indication on the suitability of a manuscript is usually provided after the first round of refereeing. The authors of an accepted paper will be asked to transfer its copyright to the publisher, which will ensure the widest possible dissemination of information. The volumes of the journal are published in hardcopies, which are distributed to all APDIO associates, and in electronic format in SciELO - Scientific Electronic Library Online. Articles are abstracted/indexed in IAOR - International Abstracts in Operations Research Instructions to Authors 1. Submit papers for publication to the main editor, preferably by e-mail in Microsoft Word or ”Portable Document Format”(PDF) to [email protected], or by ordinary mail (four copies) to the following address: Prof. Joaquim J. Júdice, Departamento de Matemática, Faculdade de Ciências e Tecnologia, Universidade de Coimbra, Apartado 3008, 3001-454 COIMBRA, Portugal. 2. Language. Papers must be in written in Portuguese, English or Spanish. 3. Manuscripts should be typewritten or typeset. Number the pages consecutively. 4. The first page of the manuscript written in English should contain the following information: (a) Title; (b) names, e-mails and institutional affiliations of the authors; (c) an abstract; (d) keywords (f) identification of the corresponding author. 5. Acknowledgements, including support information, should be placed prior to the references section. 6. Footnotes should be avoided. 7. Formulas that are referred to should be numbered consecutively throughout the manuscript as (1), (2), etc. on the right. 8. Figures, including graphs and diagrams, should be numbered consecutively in Arabic numbers. 9. Tables should be numbered consecutively in Arabic numbers. 10. References. Cite only the most relevant references and list only those cited in the text. Indicate citations in the text by bracketed numbers, e.g., [4]. At the end of the paper list the references alphabetically by the surname of the first author and number them consecutively, according to the following formats: Articles: author(s), title, name and number of the journal (or book, but in this case include the editors names), year, pages. Books: Author(s), title, publisher, year. 11. Accepted papers are to be sent by the author to the editor, preferably in the form of a source file in LaTeX and EPS files for the figures together with a PDF or postscript file. Alternatively, source files in Word are also accepted. To ensure good publishing quality the figures should be in vector formats; raster formats like JPG, BMP, GIF, etc. should be avoided. 12. Page proofs will be e-mailed as a PDF file to the corresponding author. Correct proofs carefully, and restrict corrections to points at which the proof is at variance with the manuscript. Deviations from the version accepted by the editor are only possible with the prior and explicit approval of the editor. Thirty offprints of each paper are supplied free of charge to the corresponding author. Publication information Investigação Operacional (ISSN 0874-5161) is registered in the Secretaria de Estado da Comunicação Social under number 108335. The volumes of the journal are published in hardcopies, which are distributed free of charge to all APDIO associates, and in electronic format in SciELO - Scientific Electronic Library Online. Subscription price is 25 euros. Issues are sent by standard mail. Additional subscription information is available upon request from APDIO Secretariat - CESUR, Instituto Superior Técnico, Av. Rovisco Pais, 1049-001 LISBOA, Portugal. Tel. +351 218 407 455 - www.apdio.pt - [email protected] ISSN: 0874-5161 Investigação Operacional Volume 24 Apdio CESUR - Instituto Superior Técnico Av. Rovisco Pais - 1049 - 001 LISBOA Telef. 21 840 74 55 - Fax. 21 840 98 84 http://www.apdio.pt Número 1 Junho 2004 PRETO PRETO MAGENTA = APDIO